KR101585245B1 - Method for processing image and device for displaying image thereof - Google Patents

Method for processing image and device for displaying image thereof Download PDF

Info

Publication number
KR101585245B1
KR101585245B1 KR1020090054948A KR20090054948A KR101585245B1 KR 101585245 B1 KR101585245 B1 KR 101585245B1 KR 1020090054948 A KR1020090054948 A KR 1020090054948A KR 20090054948 A KR20090054948 A KR 20090054948A KR 101585245 B1 KR101585245 B1 KR 101585245B1
Authority
KR
South Korea
Prior art keywords
image
partial image
partial
display
unit
Prior art date
Application number
KR1020090054948A
Other languages
Korean (ko)
Other versions
KR20100136712A (en
Inventor
신덕문
곽우영
강윤환
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090054948A priority Critical patent/KR101585245B1/en
Publication of KR20100136712A publication Critical patent/KR20100136712A/en
Application granted granted Critical
Publication of KR101585245B1 publication Critical patent/KR101585245B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은, 이미지내에 포함되어 있는 오브젝트를 오브젝트 프로그램을 이용하여 인식하는 단계; 상기 오브젝트를 중심으로 부분 이미지를 생성하는 단계; 및 상기 생성된 부분 이미지를 자동적으로 표시하는 단계를 포함하는, 이미지 처리 방법 및 이를 적용한 이미지 표시 장치에 관한 것이다.The present invention comprises: recognizing an object included in an image using an object program; Generating a partial image around the object; And automatically displaying the generated partial image, and an image display apparatus using the same.

Description

이미지 처리 방법 및 이를 적용한 이미지 표시 장치{METHOD FOR PROCESSING IMAGE AND DEVICE FOR DISPLAYING IMAGE THEREOF}Technical Field [0001] The present invention relates to an image processing method and an image display apparatus using the image processing method.

본 발명은 이미지 처리 방법 및 이를 적용한 이미지 표시 장치에 관한 것이다.The present invention relates to an image processing method and an image display apparatus using the same.

최근 디지털 컨버전스(Digital Convergence)의 동향에 따라, 대용량의 저장 매체를 가진 여러 디지털 기기에서 포토 앨범(Photo Album) 기능을 제공하고 있다.Recently, according to the trend of digital convergence (Digital Convergence), a digital photo device having a large capacity storage media provides a photo album function.

여기서, 디지털 기기란 디지털 데이터를 처리하는 디지털 회로를 가진 장치로서, 이미지 데이터를 제품의 화면에 디스플레이할 수 있는 컴퓨터, 프린터, 디지털 TV, 디지털 카메라, 디지털 복사기, 개인용 디지털 단말기(PDA), 휴대폰, 이동 멀티미디어 플레이어(PMP), MP3 플레이어, 디지털 비디오 레코더, 전자 앨범 등을 예로 들 수 있다.Here, a digital device is a device having a digital circuit for processing digital data. The digital device is a computer, a printer, a digital TV, a digital camera, a digital copier, a personal digital assistant (PDA) Mobile multimedia players (PMPs), MP3 players, digital video recorders, electronic albums, and the like.

일반적으로, 디지털 기기에서 사진 목록을 제공하는 경우, 각 사진 파일의 썸네일 이미지를 추출한 후 재생하여 보여주는데, 이때 사용자는 썸네일 이미지를 통해 여러 사진을 동시에 볼 수 있게 된다. 또는 슬라이드 쇼 기능을 통해 복수의 사진을 순차적으로 볼 수 있다.Generally, when providing a list of pictures in a digital device, a thumbnail image of each picture file is extracted and reproduced and displayed. At this time, the user can view several pictures simultaneously through a thumbnail image. Alternatively, a plurality of pictures can be sequentially viewed through the slide show function.

그런데, 사용자는 이미지에 포함되어 있는 특정 오브젝트만을 확대하여 보고 싶을 때가 있다. 이를 위해, 사용자는 카메라 또는 디스플레이장치에 제공되는 편집 툴을 이용하여 수동으로 특정 오브젝트를 선택하고 이를 확대하여 볼 수 있다,However, the user sometimes wants to zoom in on only specific objects included in the image. For this purpose, a user can manually select a specific object using an editing tool provided on a camera or a display device, and enlarge the selected object.

본 발명은 이미지 내에 포함되어 있는 특정 오브젝트를 자동으로 추출하여 부분이미지를 생성하여, 사용자에게 편리한 작업 환경을 제공하기 위한 것이다. The present invention is for automatically extracting a specific object included in an image and generating a partial image to provide a convenient working environment for a user.

상술한 과제를 해결하기 위해, 본 발명에 따른 이미지 처리 방법은, 이미지내에 포함되어 있는 오브젝트를 오브젝트 인식 프로그램을 이용하여 인식하는 단계; 상기 오브젝트를 중심으로 부분 이미지를 생성하는 단계; 및 상기 생성된 부분 이미지를 자동적으로 표시하는 단계를 포함할 수 있다. 여기서, 상기 오브젝트는 사람의 얼굴일 수 있다. According to an aspect of the present invention, there is provided an image processing method comprising: recognizing an object included in an image using an object recognition program; Generating a partial image around the object; And automatically displaying the generated partial image. Here, the object may be a face of a person.

본 발명의 일실시예의 일태양에 의하면, 상기 오브젝트를 중심으로 부분 이미지를 생성하는 단계는, 상기 오브젝트의 가로 세로비를 확인하는 단계; 및 상기 가로 세로비를 고려하여 부분 이미지의 형태를 결정하는 단계를 포함할 수 있다.According to an aspect of the embodiment of the present invention, the step of generating the partial image around the object may include: determining the aspect ratio of the object; And determining the shape of the partial image in consideration of the aspect ratio.

본 발명의 일실시예의 일태양에 의하면, 상기 생성된 부분 이미지를 자동적으로 표시하는 단계는,상기 생성된 부분 이미지가 복수인 경우, 슬라이드 쇼로 표시하는 단계를 포함할 수 있다.According to an aspect of the embodiment of the present invention, the step of automatically displaying the generated partial image may include a step of displaying the generated partial image in a slide show if the generated partial image is plural.

본 발명의 일실시예의 일태양에 의하면, 상기 생성된 부분 이미지를 자동적으로 표시하는 단계는, 사용자가 소정거리내로 접근하였는지를 감지하는 단계; 및 상기 사용자가 소정거리내로 접근하였으면, 상기 생성된 부분이미지를 이미지와 함 께 자동적으로 표시하는 단계를 포함할 수 있다.According to an aspect of the embodiment of the present invention, the step of automatically displaying the generated partial image includes: detecting whether the user approaches within a predetermined distance; And automatically displaying the generated partial image together with the image if the user approaches within a predetermined distance.

본 발명에 따른 다른 실시예인 이미지 표시 장치는, 이미지 데이터 및 이미지 내의 오브젝트를 인식하기 위한 오브젝트 인식 프로그램을 저장하기 위한 메모리; 상기 이미지 데이터를 표시하기 위해 구성된 디스플레이부; 및 상기 오브젝트 인식 프로그램을 이용하여 상기 이미지 내의 오브젝트를 인식하고, 이 인식된 오브젝트를 중심으로 부분이미지를 생성하고, 이 부분 이미지를 상기 디스플레이부에 자동적으로 표시하도록 제어하는 제어부를 포함할 수 있다. 여기서, 상기 오브젝트는 사람의 얼굴일 수 있다.An image display apparatus according to another embodiment of the present invention includes a memory for storing image data and an object recognition program for recognizing an object in an image; A display unit configured to display the image data; And a control unit for recognizing an object in the image using the object recognition program, generating a partial image around the recognized object, and automatically displaying the partial image on the display unit. Here, the object may be a face of a person.

본 발명의 다른 실시예의 일태양에 의하면, 상기 제어부는, 상기 오브젝트의 가로 세로비를 확인하고, 이 가로세로비를 고려하여 상기 부분이미지의 형태를 결정할 수 있다. According to another aspect of the present invention, the control unit can determine the aspect ratio of the object and determine the shape of the partial image in consideration of the aspect ratio.

본 발명의 다른 실시예의 일태양에 의하면, 상기 제어부는, 상기 오브젝트가 복수이고, 이에 따라, 복수의 부분이미지를 생성하며, 이 생성된 복수의 부분이미지를 슬라이드 쇼로 표시하도록 상기 디스플레이부를 제어할 수 있다.According to an embodiment of another embodiment of the present invention, the control unit can control the display unit to display a plurality of the partial images in a slide show, the plurality of objects being plural, thereby generating a plurality of partial images have.

본 발명의 다른 실시예의 일태양에 의하면, 상기 이미지 표시장치는, 사용자의 접근을 감지하기 위한 센서를 더 포함하고, 상기 제어부는, 상기 사용자가 소정거리내로 접근한 경우, 상기 부분 이미지를 상기 이미지와 함께 자동적으로 표시하도록 상기 디스플레이부를 제어할 수 있다.According to an aspect of another embodiment of the present invention, the image display apparatus further includes a sensor for sensing a user's approach, and when the user approaches within a predetermined distance, So that the display unit can be automatically displayed.

본 발명의 다른 실시예의 일태양에 의하면, 상기 이미지 표시장치는, 상기 이미지 장치의 기울기를 측정하기 위한 센싱부를 더 포함하고, 상기 제어부는, 상 기 이미지 장치의 기울기를 고려하여 상기 부분 이미지의 가로 세로비를 결정하는,할 수 있다. According to an aspect of another embodiment of the present invention, the image display apparatus further includes a sensing unit for measuring a tilt of the image device, and the control unit controls the horizontal direction of the partial image in consideration of the tilt of the image device. You can determine the vertical ratio.

상술한 구성을 가진 본 발명에 따르면, 사용자는 이미지내의 오브젝트를 포함한 부분이미지를 자동으로 분할하여 표시할 수 있다. 따라서, 본 발명은 사용자에게 편리한 그래픽 사용자 인터페이스(GUI)를 제공할 수 있다.According to the present invention having the above-described configuration, a user can automatically display a partial image including an object in an image by dividing it. Thus, the present invention can provide a graphical user interface (GUI) that is convenient for the user.

이하, 본 발명과 관련된 이동 통신 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Hereinafter, a mobile communication terminal according to the present invention will be described in detail with reference to the drawings. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

본 명세서에서 설명되는 이미지 표시 장치에는 전자 앨범, 디지털 티브이, 프로젝터, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. A mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player) , Navigation, and the like.

상기 이미지 표시장치(100)는 통신부(10), 센싱부(20), 디스플레이부(30), 메모리(40), 인터페이스부(50), 제어부(60) 및 전원 공급부(도시되지 않음) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많 은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이미지 표시 장치가 구현될 수도 있다.The image display apparatus 100 includes a communication unit 10, a sensing unit 20, a display unit 30, a memory 40, an interface unit 50, a control unit 60, and a power supply unit . The components shown in FIG. 1 are not essential, so that an image display device having more or fewer components may be implemented.

통신부(10)는 이미지 표시 장치(100)와 무선 통신 시스템 사이 또는 이미지 표시장치와 타 단말기간의 이미지 관련 정보를 송수신하는 장치이다. 이 통신부(10)은 WIFI 모듈(11), 근거리 통신 모듈(12) 및 위치 정보 모듈(13)을 포함할 수 있다.The communication unit 10 is an apparatus for transmitting and receiving image related information between the image display apparatus 100 and the wireless communication system or between the image display apparatus and another terminal. The communication unit 10 may include a WIFI module 11, a short distance communication module 12, and a location information module 13. [

WIFI 모듈(11)은, 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이미지 표시 장치(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 WIFI를 대체하여 이용될 수 있다. The WIFI module 11 refers to a module for wireless Internet access, and can be embedded in the image display device 100 or externally. Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), and HSDPA (High Speed Downlink Packet Access) can be used as a wireless Internet technology in place of WIFI.

근거리 통신 모듈(12)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 12 is a module for short-range communication. Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.

위치정보 모듈(13)은 이동 통신 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The position information module 13 is a module for acquiring the position of the mobile communication terminal, and a representative example thereof is a GPS (Global Position System) module.

센싱부(20)는 이미지 표시장치에 대하여 외부 물체가 접근하는지 유무, 사용자 접촉유무, 이미지 표시장치의 방위, 이미지 표시장치의 가속/감속등과 같이 이미지 표시장치의 현재 상태를 감지하여 이미지 표시 장치(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들면, 사용자가 이미지 표시장치에 소정거리내로 근접하는 경우, 센싱부(20)를 이를 감지하여 센싱신호를 발생시킨다. 또한, 전원 공급부의 전원 공급 여부, 인터페이스부(50)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(20)는 적외선 센서(21), 초음파 센서(22), 포토 센서(23), 및 근접 센서(24)를 포함할 수 있다. The sensing unit 20 senses the current state of the image display device, such as whether or not an external object approaches the user, whether the user touches the user, the orientation of the image display device, the acceleration / deceleration of the image display device, And generates a sensing signal for controlling the operation of the microcomputer 100. For example, when the user approaches the image display device within a predetermined distance, the sensing unit 20 senses this and generates a sensing signal. It is also possible to sense whether power is supplied to the power supply unit, whether the interface unit 50 is connected to an external device, and the like. The sensing unit 20 may include an infrared sensor 21, an ultrasonic sensor 22, a photosensor 23, and a proximity sensor 24.

디스플레이부(30)는 이미지 처리 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이미지 표시장치에 이미지가 표시되어 있는 경우, 상기 이미지의 표시처리와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. The display unit 30 displays (outputs) the information processed in the image processing apparatus 100. For example, when an image is displayed on the image display device, a UI (User Interface) or a GUI (Graphic User Interface) associated with the display process of the image is displayed.

디스플레이부(30)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 30 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(30)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(30)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 30 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 30 of the terminal body.

이미지 처리 장치(100)의 구현 형태에 따라 디스플레이부(30)가 2개 이상 존재할 수 있다. 예를 들어, 이미지 처리 장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 30 according to the embodiment of the image processing apparatus 100. For example, in the image processing apparatus 100, a plurality of display portions may be spaced apart from one another or may be disposed integrally with each other, or may be disposed on different surfaces, respectively.

디스플레이부(30)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(30)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 30 and a sensor (hereinafter, referred to as 'touch sensor') that detects a touch operation form a mutual layer structure, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(30)의 특정 부위에 가해진 압력 또는 디스플레이부(30)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 30 or a capacitance generated in a specific portion of the display unit 30 to an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(60)로 전송한다. 이로써, 제어부(60)는 디스플레이부(30)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the control unit 60. Thus, the control unit 60 can know which area of the display unit 30 is touched or the like.

도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 통신 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(24)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. Referring to FIG. 1, a proximity sensor 24 may be disposed in an inner region of the mobile communication terminal or in the vicinity of the touch screen, which is surrounded by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

메모리(40)는 제어부(60)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(40)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 40 may store a program for the operation of the controller 60 and temporarily store input / output data (e.g., still images, moving images, etc.). The memory 40 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리(40)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이미지 표시 장치(100)는 인터넷(internet)상에서 상기 메모리(40)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 40 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The image display apparatus 100 may operate in association with a web storage that performs a storage function of the memory 40 on the Internet.

인터페이스부(50)는 이미지 표시 장치(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(50)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이미지 표시 장치(100) 내부의 각 구성 요소에 전달하거나, 이미지 표시 장치(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(50)에 포함될 수 있다. The interface unit 50 serves as a path for communication with all external devices connected to the image display apparatus 100. The interface unit 50 receives data from an external device or supplies power to each component in the image display device 100 or allows data in the image display device 100 to be transmitted to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 50.

상기 인터페이스부(50)는 이미지 표시장치(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이미지 표시 장치(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit 50 is a path through which power from the cradle is supplied to the image display apparatus 100 when the image display apparatus 100 is connected to an external cradle, Various command signals may be transmitted to the mobile terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(controller, 60)는 통상적으로 이미지 표시 장치의 전반적인 동작을 제어한다. 예를 들어, 이미지 데이터 및 음성데이터의 표시 처리 및 이와 관련된 제어 및 처리를 수행한다. The controller 60 typically controls the overall operation of the image display device. For example, display processing of image data and audio data and control and processing related thereto are performed.

상기 제어부(60)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The control unit 60 can perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(도시되지 않음)는 제어부(60)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit (not shown) receives external power and internal power under the control of the controller 60 and supplies power required for operation of the respective components.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(60) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the control unit 60 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(40)에 저장되고, 제어부(60)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software codes are stored in the memory 40 and can be executed by the control unit 60. [

도 2는 본 발명과 관련된 이미지 표시장치의 일예를 전면에서 바라본 사시도이다. 2 is a perspective view of an example of an image display apparatus according to the present invention, as viewed from the front.

바디는 외관을 이루는 케이스(케이싱, 하우징, 커버 등)를 포함한다. 본 실시예에서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 중간 케이스가 추가로 배치될 수도 있다.The body includes a case (a casing, a housing, a cover, and the like) which forms an appearance. In this embodiment, the case may be divided into a front case 101 and a rear case 102. [ A variety of electronic components are embedded in the space formed between the front case 101 and the rear case 102. At least one intermediate case may be additionally disposed between the front case 101 and the rear case 102. [

케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.The cases may be formed by injection molding a synthetic resin or may be formed to have a metal material such as stainless steel (STS) or titanium (Ti) or the like.

단말기 바디, 주로 프론트 케이스(101)에는 센싱부(20), 디스플레이부(30), 음향출력부(71, 72), 카메라(75), 사용자 입력부(81,82,83) 등이 배치될 수 있다.The sensing unit 20, the display unit 30, the sound output units 71 and 72, the camera 75, and the user input units 81, 82 and 83 can be disposed in the front body 101, have.

센싱부(20)는 포토센서, 초음파 센서, 또는 근접센서로 구성될 수 있다. 이 센싱부는 외부 물체가 이미지 표시 장치에 소정거리내로 접근하는지를 검출한다. The sensing unit 20 may be a photo sensor, an ultrasonic sensor, or a proximity sensor. The sensing unit detects whether an external object approaches the image display unit within a predetermined distance.

디스플레이부(30)는 프론트 케이스(101)의 주면의 대부분을 차지한다. 디스플레이부(30)의 양단에 인접한 영역에는 음향출력부(71,72)가 배치되고, 일측의 중앙부에는 카메라(75)가 배치된다. 사용자 입력부(81-83)는, 도시된 바와 같이, 프론트 케이스(101)의 중앙 하부에 배치될 수 있다.The display unit 30 occupies most of the main surface of the front case 101. Sound output units 71 and 72 are disposed in the area adjacent to both ends of the display unit 30, and a camera 75 is disposed in the center of one side. The user input unit 81-83 may be disposed at the lower center of the front case 101 as shown in the figure.

사용자 입력부(81-83)는 이미지 표시 장치(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 복수의 조작 유닛들을 포함할 수 있다. 조작 유닛들은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각 적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.The user input unit 81-83 is operated to receive a command for controlling the operation of the image display apparatus 100, and may include a plurality of operation units. The operating units may also be referred to as manipulating portions and may be employed in any manner as long as the user is operating in a tactile manner with a tactile impression.

이하에서는, 본 발명에 따른 일실시예인 이미지 표시 방법에 대하여 도 3을 참조하여 설명하도록 한다.Hereinafter, an image display method according to an embodiment of the present invention will be described with reference to FIG.

도 3은 본 발명에 따른 일실시예인 이미지 처리 방법을 설명하기 위한 흐름도이다. 도시된 바와 같이, 우선 이미지 처리 장치(100)의 메모리(40)에는 오브젝트 인식 프로그램이 저장되어 있다(S1). 이 오브젝트 인식 프로그램은 이미지(정지 영상, 동영상을 포함한다)내에 포함되는 오브젝트를 인식하기 위한 프로그램이다. 예를 들면, 얼굴 인식프로그램을 포함한다. 사람이 얼굴 뿐아니라, 빌딩이나, 건물, 동물등을 배경과 구별하여 인식하는 프로그램을 포함한다. 이 오브젝트 인식 프로그램은 이미지 처리 장치 제조업자가 디폴트로 메모리(40)에 저장할 수도 있고, 사용자가 통신부(10)나 인터페이스(50)를 통해 상기 메모리(40)에 저장할 수도 있다. 한편, 메모리(40)에 기저장된 이미지를 디스플레이부(30)에 표시된 상태에서, 사용자 입력부를 통해 상기 이미지에 대한 부분이미지 생성 명령이 발생되면, 제어부(60)는 상기 이미지내의 오브젝트를, 상기 오브젝트 인식 프로그램을 이용하여 확인한다(S2). 그 다음, 제어부(60)는 상기 오브젝트의 가로대 세로비를 확인하고(S3), 상기 가로 세로비에 대응하는 가로 대 세로비를 갖는 부분 이미지를 생성한다(S4). 예를 들면, 오브젝트 인식 프로그램에 따라 사람의 얼굴이 가로대 세로비가 3:2인 경우, 부분이미지는 가로가 긴 이미지로 생성된다(즉, 3:2 비율로 똑같 을 필요는 없다). 또는, 이미지 표시장치가 놓여진 상태에 따라 부분 이미지가 다르게 생성될 수 있다. 예를 들면, 이미지 표시장치가 가로가 긴 형태로 놓여져 있으면, 3:2의 부분이미지가 생성되고, 세로가 긴 형태로 놓여져 있으면, 2:3의 부분 이미지가 생성될 수 있다. 상술한 가로대 세로비는 일예에 불과하며, 이 비율에 한정되어서 본 발명을 해석해서는 안된다. 이렇게 부분이미지가 생성되면, 이 부분 이미지가 디스플레이부(30)에 표시된다. 이 때, 이 부분이미지는 섬네일 형태로 표시될 수도 있고, 또는, 슬라이드 쇼 형태로 표시될 수도 있다. 또는 센싱부(20)에서 외부 물체가 접근하면(초음파 센서, 적외선 센서, 포토센서등을 이용하여), 상기 이미지 처리 장치(100)가 온되어서 부분이미지가 표시될 수도 있다. 이에 대한 구체적인 적용예는 도 4 내지 도 7을 통해 상세하게 설명하도록 한다. 또는 이미지 처리 장치가 소정지역에 진입하면, 위치 정보 모듈(13)이 이를 감지하고, 이에 따라, 상기 부분 이미지들이 디스플레이부(30)에 표시될 수 있다. 또는, 상기 3 is a flowchart illustrating an image processing method according to an embodiment of the present invention. As shown in the figure, an object recognition program is stored in the memory 40 of the image processing apparatus 100 (S1). This object recognition program is a program for recognizing an object included in an image (including a still image and a moving image). For example, a face recognition program. It includes a program for recognizing not only a face but also a building, a building, an animal, etc. from the background. This object recognition program may be stored in the memory 40 by the image processing apparatus manufacturer by default or may be stored in the memory 40 by the user through the communication unit 10 or the interface 50. [ Meanwhile, when a partial image generation command for the image is generated through the user input unit in a state where the image stored in the memory 40 is displayed on the display unit 30, the controller 60 controls the object in the image, (S2). Next, the controller 60 checks the cross ratio of the object (S3), and generates a partial image having a cross ratio corresponding to the cross ratio (S4). For example, according to the object recognition program, if a person's face has a cross ratio of 3: 2, the partial image is generated as a horizontally long image (that is, it does not need to be the same in a 3: 2 ratio). Alternatively, the partial image may be generated differently depending on the state in which the image display device is placed. For example, if the image display device is placed in a horizontally long form, a partial image of 3: 2 is generated. If the image display device is placed in a long form, a partial image of 2: 3 can be generated. The above-mentioned cross ratio is only an example, and the present invention should not be construed as being limited to this ratio. When the partial image is generated in this manner, the partial image is displayed on the display unit 30. [ At this time, the partial image may be displayed in the form of a thumbnail, or may be displayed in a form of a slide show. The image processing apparatus 100 may be turned on and a partial image may be displayed when an external object approaches (using an ultrasonic sensor, an infrared sensor, a photosensor, or the like) at the sensing unit 20. A specific application example will be described in detail with reference to FIG. 4 through FIG. Or when the image processing apparatus enters a predetermined area, the position information module 13 senses it, so that the partial images can be displayed on the display unit 30. [ Alternatively,

이상과 같은 본 발명의 실시예에 따르면, 이미지 내의 오브젝트를 이미지 처리장치가 자동으로 감지하여, 이에 대응하는 부분이미지를 생성하고, 이 부분 이미지들을 슬라이드 쇼나 섬네일 형태로 디스플레이함으로써, 사용자의 '부분이미지 생성'의 수고를 덜어줄 수 있다.According to the embodiment of the present invention as described above, the image processing apparatus automatically detects an object in an image, generates a partial image corresponding to the object, and displays the partial images in the form of a slide show or a thumbnail, It is possible to relieve the trouble of 'generation'.

이하에서는, 본 발명에 따른 이미지 처리 방법이 적용된 예를 도 4 내지 도 7의 이미지도를 참조하여 상세하게 설명하도록 한다.Hereinafter, an example in which the image processing method according to the present invention is applied will be described in detail with reference to the image views of FIG. 4 to FIG.

도 4는 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 1 적용예를 설명하기 위한 이미지도이고, 도 5는 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 2 적용예를 설명하기 위한 이미지도이며, 도 6은 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 3 적용예를 설명하기 위한 이미지도이고, 도 7은 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 4 적용예를 설명하기 위한 이미지도이다.FIG. 4 is a diagram illustrating a first application example to which an image processing method according to an embodiment of the present invention is applied, FIG. 5 is a flowchart illustrating a second application example to which an image processing method according to an embodiment of the present invention is applied FIG. 6 is an image diagram for explaining a third application example to which an image processing method according to an embodiment of the present invention is applied, FIG. 7 is a fourth application example to which an image processing method according to an embodiment of the present invention is applied Fig.

[제 1 적용예][First Application Example]

도 4는 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 1 적용예를 설명하기 위한 이미지도이다. 도 4의 (a)에 도시된 바와 같이, 이미지 표시 장치(100)의 디스플레이부(30)에는 복수의 사람(101-104)과 건물등이 있다. 이때, 메모리(40)에 저장되어 있는 얼굴 인식 프로그램이 구동되면, 제어부(60)는 상기 이미지 내의 얼굴을 인식할 수 있게 된다. 그러면, 제어부(60)는 자동적으로 상기 인식된 얼굴을 중심으로, 부분이미지들(101-1, 102-1, 103-1, 104-1)을 생성한다(도 4의 (b) 참조). 이렇게 부분 이미지들(101-1, 102-1, 103-1, 104-1)은 슬라이드 쇼 형태 또는 섬네일 형태로 디스플레이부(30)에 표시될 수 있다. 도 4의 (c)에는 부분 이미지(101-1)가 도시되어 있으며, 소정시간이 경과되면, 순차적으로 다음 부분이미지들(102-1, 103-1, 104-1)이 디스플레이부(30)에 표시될 수 있다. 이 때, 부분이미지의 가로대 세로비는 상기 디스플레이부의 가로대 세로비에 대응될 수 있 다. 또, 도 4에서는 가로가 긴 형태로 이미지 표시장치(100)가 배치되어 있어, 부분이미지도 가로가 긴 형태 (예를 들면, 가로대 세로비가 3:2인 형태)로 생성될 수 있다. 상기 부분이미지의 가로대 세로비는 이미지 표시장치(100)의 배치상태에 따라 결정될 수도 있다. 즉, 이미지 표시장치(100)가 가로로 긴 행태로 놓여진 경우, 부분이미지는 가로가 긴 형태로 생성될 수 있다. 4 is an image diagram illustrating a first application example to which an image processing method according to an embodiment of the present invention is applied. As shown in FIG. 4 (a), the display unit 30 of the image display device 100 includes a plurality of people 101-104, buildings, and the like. At this time, when the face recognition program stored in the memory 40 is driven, the controller 60 can recognize the face in the image. Then, the control unit 60 automatically generates the partial images 101-1, 102-1, 103-1, and 104-1 around the recognized face (see FIG. 4 (b)). The partial images 101-1, 102-1, 103-1, and 104-1 may be displayed on the display unit 30 in the form of a slide show or a thumbnail. 4 (c) shows a partial image 101-1. When a predetermined time elapses, the next partial images 102-1, 103-1, and 104-1 are sequentially displayed on the display unit 30, Lt; / RTI > At this time, the cross ratio of the partial image may correspond to the cross ratio of the display portion. In FIG. 4, the image display device 100 is arranged in a long horizontal shape, and a partial image can also be generated in a long horizontal shape (for example, a horizontal bar vertical ratio of 3: 2). The aspect ratio of the partial image may be determined according to the arrangement state of the image display apparatus 100. [ That is, when the image display apparatus 100 is placed in a long horizontal state, the partial image can be generated in a horizontally long shape.

이상과 같은 제 1 적용예에 따르면, 사용자는 사람의 얼굴을 중심으로하는 부분이미지를 편리하게 생성할 수 있다.According to the first application example as described above, the user can conveniently create a partial image centered on a person's face.

[제 2 적용예][Second Application Example]

도 5는 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 2 적용예를 설명하기 위한 이미지도이다.5 is an image diagram for explaining a second application example to which an image processing method according to an embodiment of the present invention is applied.

도 5의 (a)에는 사람과 건물이 배경과 구별되어 인식되는 화면(200)을 설명하기 위한 도면이 도시되어 있다. 도시된 바와 같이, 사람(201)이나 건물(202)는 배경색과 그 색상, 명도 채도가 구별된다. 메모리(40)에 저장되어 있는 오브젝트 인식 프로그램이 구동되면, 제어부(60)는 이미지내에 포함되어 있는 오브젝트(201,202)를 배경과 구별하여 인식하게 되다. 그러면, 제어부(60)는 이 오브젝트를 중심으로 일정 범위내의 이미지를 절단하여 부분이미지를 자동적으로 생성하게 된다. FIG. 5 (a) is a view for explaining a screen 200 in which people and buildings are distinguished from backgrounds. As shown in the figure, the person 201 or the building 202 distinguishes the background color from its hue and saturation. When the object recognition program stored in the memory 40 is activated, the control unit 60 distinguishes the objects 201 and 202 included in the image from backgrounds. Then, the control unit 60 automatically cuts the image within a certain range around the object to generate a partial image.

도 5의 (b)에는 부분이미지의 가로대 세로비가 결정되는 예를 설명하기 위한 도면이 도시되어 있다. 도시된 바와 같이, 사람의 얼굴(310)이 제어부(60)에 의해 인식되어 있다. 이 때, 가로대 세로비인 a : b에서 a가 b보다 크다. 이 경우, 가로가 긴 형태의 부분이미지가 생성된다. 이와 반대로, 사람의 전신(320)이 제어부(60)에 의해 인식되는 경우, a'는 b'보다 작게 된다. 이 경우 세로가 긴 형태의 부분이미지가 생성된다.FIG. 5B is a view for explaining an example in which a cross-sectional aspect ratio of a partial image is determined. As shown, the face 310 of the person is recognized by the control unit 60. [ At this time, a is larger than b in a: b, which is the cross-sectional vertical ratio. In this case, a partial image of a long horizontal shape is generated. On the other hand, when the whole body 320 of a person is recognized by the control unit 60, a 'becomes smaller than b'. In this case, a partial image having a long vertical shape is generated.

즉, 인식되는 오브젝트의 가로대 세로비는 부분이미지의 가로대 세로비를 결정하게 된다. That is, the cross-sectional aspect ratio of the recognized object determines the cross-sectional aspect ratio of the partial image.

이에 따르면, 생성되는 부분이미지가 보다 사용자의 요구에 맞게 생성된다.According to this, a partial image to be generated is generated in accordance with a user's demand.

[제 3 적용예][Third Application Example]

도 6은 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 3 적용예를 설명하기 위한 이미지도이다.FIG. 6 is an image diagram illustrating a third application example to which an image processing method according to an embodiment of the present invention is applied.

도 6은 사용자의 접근 감지를 통해 이미지 표시장치의 온 오프 또는 콘트라스트를 제어하는 예를 설명한다. 도시된 바와 같이 이미지 표시장치의 전면에는 센싱부(20)가 배치되어 있다. 이 센싱부는 외부물체(사용자 및 물건을 포함)의 접근을 감지하기 위한 장치로서, 적외선 세서(21), 초음파센서(22), 포토 센서(23), 근접센서(24)를 포함한다. 이렇게 센싱부(20)에서 외부물체(400)의 접근을 감지하게 되면, 제어부(60)는 디스플레이부(30)를 온시킨다. 또 소정시간동안 외부 물체가 감지되지 않으면, 디스플레이부(30)를 오프시킬 수 있다.6 illustrates an example of controlling the on-off or contrast of the image display apparatus through user's approach detection. As shown in the figure, the sensing unit 20 is disposed on the front surface of the image display apparatus. The sensing unit includes an infrared sensor 21, an ultrasonic sensor 22, a photosensor 23, and a proximity sensor 24. The infrared sensor 21 senses the approach of an external object (including a user and an object). When the sensing unit 20 senses the approach of the external object 400, the controller 60 turns the display unit 30 on. If an external object is not detected for a predetermined time, the display unit 30 can be turned off.

외부물체(400)의 접근을 감지함에 있어, 상기 센싱부 대신에 카메라 모듈이 이용될 수도 있다. 즉, 카메라를 온시킨 상태에서, 움직이는 물체(외무 물체의 접 근)가 감지되면, 디스플레이부(30)를 온시키고, 소정시간동안 움직이는 물체가 없으면, 디스플레이부(30)를 오프시킨다. In sensing the approach of the external object 400, a camera module may be used instead of the sensing unit. That is, when the moving object (the approach of the external object) is detected while the camera is turned on, the display unit 30 is turned on, and if there is no moving object for a predetermined time, the display unit 30 is turned off.

또는, 센싱부(20)에서 외부물체(400)의 접근을 감지하면, 기설정된 동영상을 재생하고, 일정시간동안 움직이는 물체가 없다면, 동영상의 재생을 정지시킨다. 이 경우에도 카메라가 센싱부 대신에 이용될 수 있다. Alternatively, when the sensing unit 20 detects the approach of the external object 400, it reproduces the predetermined moving image, and stops the moving image if there is no moving object for a predetermined period of time. Even in this case, a camera can be used instead of the sensing unit.

또는 센싱부(20)에서 외부 물체(400)의 접근을 감지하면, 기설정된 메뉴가 디스플레이부(30)에 표시되고, 이에 따라 사용자는 편리하게 자신이 원하는 메뉴를 실행할 수 있게 된다.Or sensing the approach of the external object 400 by the sensing unit 20, a predetermined menu is displayed on the display unit 30, thereby allowing the user to conveniently execute the desired menu.

또는, 센싱부(20)에서 외부물체(400)의 접근을 감지하면, 기설정된 이미지의 부분이미지를 자동으로 생성하고, 이를 슬라이드 쇼 또는 섬네일 형태로 표시하고, 일정시간동안 움직이는 물체가 없다면, 디스플레이부(30)를 오프시킨다. Alternatively, when the sensing unit 20 detects the approach of the external object 400, it automatically generates a partial image of the predetermined image, displays it in a slide show or a thumbnail form, and if there is no moving object for a predetermined time, The control unit 30 turns off.

[제 4 적용예][Fourth application example]

도 7은 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 4 적용예를 설명하기 위한 이미지도이다.7 is an image diagram for explaining a fourth application example to which an image processing method according to an embodiment of the present invention is applied.

도 7은 본 발명에 따른 이미지 표시장치(100)의 온오프 제어를 휴대 단말기(500)를 이용하여 이루어지는 예를 설명하기 위한 도면이다. 휴대 단말기(500)는 사용자가 자주 휴대하는 제품으로서, 도시된 바와 같이, 이미지 표시 장치(100)와 WIFI 또는 블루투스로 접속될 수 있다. 상기 휴대 단말기(500)를 보유하고 있는 사용자가 이미지 표시장치(100)로부터 소정거리내(WIFI 또는 블루투스의 사정거리)에 접근하게 되면, 통신부(10)를 통해 단말기의 접근을 인지하고, 이에 따라, 이미지 표시장치(100)의 제어부(60)는 디스플레이부(30)를 온시킨다. 그와 함께, 기설정된 부분이미지가 자동으로 디스플레이부(30)에 표시될 수 있다. 7 is a diagram for explaining an example in which the on-off control of the image display apparatus 100 according to the present invention is performed using the portable terminal 500. In FIG. The portable terminal 500 is a product frequently carried by a user, and can be connected to the image display apparatus 100 through WIFI or Bluetooth, as shown in the figure. When the user who holds the portable terminal 500 approaches the image display apparatus 100 within a predetermined distance (range of WIFI or Bluetooth), it recognizes the approach of the terminal through the communication unit 10, , The controller 60 of the image display apparatus 100 turns the display unit 30 on. At the same time, a preset partial image can be automatically displayed on the display unit 30. [

또는, 디스플레이부(30)를 온시킬때, 위치 정보모듈(13)이 이용될 수도 있다. 즉, 사용자가 소정의 지역을 설정하면, 제어부(60)는 상기 위치 정보 모듈(13)를 통해 이미지 표시 장치(100)가 상기 소정지역에 진입하였는지를 확인한다. 소정 지역의 진입이 확인되면, 제어부(60)는 디스플레이부(30)를 온시킴과 더불어, 기설정된 이미지의 부분이미지를 자동으로 생성하여 디스플레이부(30)에 표시하게 한다. 이 때, 상기 이미지의 태그에 기저장된 태그 정보에 의해 상기 소정지역이 결정될 수도 있다. Alternatively, when the display unit 30 is turned on, the position information module 13 may be used. That is, when the user sets a predetermined area, the controller 60 checks whether the image display device 100 has entered the predetermined area through the location information module 13. [ The control unit 60 turns on the display unit 30 and automatically generates a partial image of a predetermined image and displays the partial image on the display unit 30. [ At this time, the predetermined area may be determined based on the tag information previously stored in the tag of the image.

또는, 디스플레이부(30)를 온시킬때, 제어부(60)에 포함된 타이머가 이용될 수도 있다, 즉, 사용자의 설정에 의해 생성되거나 또는 이미지의 태그정보에 포함되어 있는 날짜 정보에 의해, 디스플레이부(30)의 온 오프가 결정된다. 즉, 제어부(60)의 타이머는 사용자에 의해 설정된 날짜, 또는 이미지 태그 정보에 속한 날짜 정보와 매칭되는 날짜 또는 시간이 되면, 상기 디스플레이부(30)를 온 시킴과 더불어 기설정된 이미지의 부분이미지를 자동으로 생성시켜 디스플레이부(30)에 표시하도록 할 수 있다.Alternatively, when turning on the display unit 30, the timer included in the control unit 60 may be used, that is, by the date information generated by the setting of the user or included in the tag information of the image, The ON / OFF of the unit 30 is determined. That is, the timer of the control unit 60 turns on the display unit 30 when a date set by the user or a date or time that matches the date information belonging to the image tag information, And display it on the display unit 30 automatically.

상기와 같이 설명된 이미지 처리 방법 및 이를 적용한 이미지 표시 장치는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described image processing method and image display apparatus using the same can be applied to a configuration and a method of the embodiments described above in a limited manner, May be selectively combined.

도 1은 본 발명에 따른 일실시예와 관련되 이미지 표시장치의 블록구성도.1 is a block diagram of an image display apparatus according to an embodiment of the present invention;

도 2는 본 발명에 따른 일실시예와 관련된 이미지 표시장치의 전면 사시도. 2 is a front perspective view of an image display apparatus according to an embodiment of the present invention;

도 3은 본 발명에 따른 일실시예인 이미지 처리 방법을 설명하기 위한 흐름도.3 is a flowchart illustrating an image processing method according to an embodiment of the present invention.

도 4는 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 1 적용예를 설명하기 위한 이미지도.FIG. 4 is an image diagram for explaining a first application example to which an image processing method according to an embodiment of the present invention is applied. FIG.

도 5는 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 2 적용예를 설명하기 위한 이미지도.FIG. 5 is an explanatory diagram illustrating a second application example to which an image processing method according to an embodiment of the present invention is applied. FIG.

도 6은 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 3 적용예를 설명하기 위한 이미지도.FIG. 6 is an image diagram for explaining a third application example to which an image processing method according to an embodiment of the present invention is applied. FIG.

도 7은 본 발명에 따른 일실시예인 이미지 처리 방법이 적용된 제 4 적용예를 설명하기 위한 이미지도.FIG. 7 is an image for explaining a fourth application example to which an image processing method according to an embodiment of the present invention is applied; FIG.

Claims (11)

이미지내에 포함되어 있는 오브젝트를 오브젝트 프로그램을 이용하여 인식하는 단계;Recognizing an object included in the image using an object program; 상기 오브젝트를 중심으로 부분 이미지를 생성하는 단계; 및Generating a partial image around the object; And 상기 생성된 부분 이미지를 자동적으로 표시하는 단계를 포함하고,And automatically displaying the generated partial image, 상기 오브젝트를 중심으로 부분 이미지를 생성하는 단계는,Wherein generating the partial image around the object comprises: 상기 이미지의 태그에 기저장된 태그 정보에 기반하여, 이미지 표시 장치가 소정지역에 진입하였는지 여부를 확인하거나, 또는 상기 태그 정보에 포함된 시간 정보와 현재의 날짜 또는 시간의 매칭 여부를 확인하는 단계; 및Confirming whether the image display device has entered a predetermined area based on the tag information previously stored in the tag of the image or checking whether the time information included in the tag information matches the current date or time; And 상기 소정지역의 진입이 확인되거나, 또는 상기 매칭이 확인되면, 상기 부분 이미지를 자동으로 생성하는 단계를 포함하고,Automatically generating the partial image if the entry of the predetermined area is confirmed or the matching is confirmed, 상기 생성된 부분 이미지를 자동적으로 표시하는 단계는,Wherein the step of automatically displaying the generated partial image comprises: 무선 통신부를 통해서 근거리 무선 통신으로 연결되는 휴대 단말기가 소정거리 내에 접근하는지 여부를 판단하는 단계;Determining whether a portable terminal connected to the short-range wireless communication through a wireless communication unit approaches within a predetermined distance; 상기 무선 통신부를 통해서 상기 휴대 단말기를 소지한 사용자의 접근으로 판단되면, 상기 사용자의 접근에 대응하여, 상기 이미지 표시 장치의 디스플레이부를 온(ON)시키는 단계를 포함하는, 이미지 처리 방법.And turning on the display unit of the image display device in response to the approach of the user when it is determined that the user having the portable terminal is approaching through the wireless communication unit. 제 1 항에 있어서,The method according to claim 1, 상기 오브젝트는 사람의 얼굴인, 이미지 처리 방법.Wherein the object is a human face. 제 1 항에 있어서, The method according to claim 1, 상기 오브젝트를 중심으로 부분 이미지를 생성하는 단계는Wherein the step of generating a partial image around the object 상기 오브젝트의 가로 세로비를 확인하는 단계;Determining an aspect ratio of the object; 상기 가로 세로비를 고려하여 부분 이미지의 형태를 결정하는 단계를 포함하는, 이미지 처리 방법.And determining the shape of the partial image in consideration of the aspect ratio. 제 1 항에 있어서, The method according to claim 1, 상기 생성된 부분 이미지를 자동적으로 표시하는 단계는,Wherein the step of automatically displaying the generated partial image comprises: 상기 생성된 부분 이미지가 복수인 경우, 슬라이드 쇼로 표시하는 단계를 포함하는, 이미지 처리 방법.And displaying the created partial image as a slide show when the generated partial image is a plurality of partial images. 제 1 항에 있어서,The method according to claim 1, 상기 생성된 부분 이미지를 자동적으로 표시하는 단계는,Wherein the step of automatically displaying the generated partial image comprises: 사용자가 소정거리내로 접근하였는지를 감지하는 단계; 및 Detecting whether the user approaches within a predetermined distance; And 상기 사용자가 소정거리내로 접근하였으면, 상기 생성된 부분이미지를 이미지와 함께 자동적으로 표시하는 단계를 포함하는, 이미지 처리 방법.And automatically displaying the generated partial image along with the image if the user approaches within a predetermined distance. 이미지 데이터 및 이미지 내의 오브젝트를 인식하기 위한 오브젝트 인식 프로그램을 저장하기 위한 메모리;A memory for storing image data and an object recognition program for recognizing an object in the image; 상기 이미지 데이터를 표시하기 위해 구성된 디스플레이부;A display unit configured to display the image data; 근거리 무선 통신을 수행하는 무선 통신부; 및 A wireless communication unit for performing short-range wireless communication; And 상기 오브젝트 인식 프로그램을 이용하여 상기 이미지 내의 오브젝트를 인식하고, 이 인식된 오브젝트를 중심으로 부분이미지를 생성하고, 이 부분 이미지를 상기 디스플레이부에 자동적으로 표시하도록 제어하는 제어부를 포함하고,And a control unit for recognizing an object in the image using the object recognition program, generating a partial image around the recognized object, and automatically displaying the partial image on the display unit, 상기 제어부는,Wherein, 상기 이미지 데이터의 태그에 기저장된 태그 정보에 기반하여, 이미지 표시 장치가 소정지역에 진입하였는지 여부를 확인하거나, 또는 상기 태그 정보에 포함된 시간 정보와 현재의 날짜 또는 시간의 매칭 여부를 확인하고, 상기 소정지역의 진입이 확인되거나, 또는 상기 매칭이 확인되면, 상기 부분 이미지를 자동으로 생성하고,Based on the tag information previously stored in the tag of the image data, whether or not the image display device has entered a predetermined area, or whether the time information included in the tag information matches the current date or time, If the entry of the predetermined area is confirmed or the matching is confirmed, the partial image is automatically generated, 상기 무선 통신부를 통해서 근거리 무선 통신으로 연결되는 휴대 단말기가 소정거리 내에 접근하는지 여부를 판단하고, 상기 휴대 단말기를 소지한 사용자의 접근으로 판단되면, 상기 사용자의 접근에 대응하여, 상기 디스플레이부를 온(ON)시키는 이미지 표시 장치.Wherein the control unit determines whether the portable terminal connected by short-range wireless communication approaches within a predetermined distance through the wireless communication unit and, when it is determined that the portable terminal has accessed the portable terminal, ON). 제 6 항에 있어서,The method according to claim 6, 상기 오브젝트는 사람의 얼굴인, 이미지 표시 장치.Wherein the object is a person's face. 제 6 항에 있어서,The method according to claim 6, 상기 제어부는,Wherein, 상기 오브젝트의 가로 세로비를 확인하고, 이 가로세로비를 고려하여 상기 부분이미지의 형태를 결정하는, 이미지 표시 장치.Determines the aspect ratio of the object, and determines the shape of the partial image in consideration of the aspect ratio. 제 6 항에 있어서,The method according to claim 6, 상기 제어부는,Wherein, 상기 오브젝트가 복수이고, 이에 따라, 복수의 부분이미지를 생성하며, 이 생성된 복수의 부분이미지를 슬라이드 쇼로 표시하도록 상기 디스플레이부를 제어하는, 이미지 표시 장치.Wherein the control unit controls the display unit to display a plurality of partial images in a slide show, the plurality of partial images being generated by a plurality of the objects, thereby generating a plurality of partial images. 제 6 항에 있어서,The method according to claim 6, 사용자의 접근을 감지하기 위한 센서를 더 포함하고,Further comprising a sensor for sensing a user's access, 상기 제어부는,Wherein, 상기 사용자가 소정거리내로 접근한 경우, 상기 부분 이미지를 상기 이미지와 함께 자동적으로 표시하도록 상기 디스플레이부를 제어하는, 이미지 표시 장치.And controls the display unit to automatically display the partial image together with the image when the user approaches within a predetermined distance. 제 6 항에 있어서,The method according to claim 6, 상기 이미지 장치의 기울기를 측정하기 위한 센싱부를 더 포함하고, Further comprising a sensing unit for measuring a tilt of the imaging device, 상기 제어부는,Wherein, 상기 이미지 장치의 기울기를 고려하여 상기 부분 이미지의 가로 세로비를 결정하는, 이미지 표시 장치.And determines the aspect ratio of the partial image in consideration of the tilt of the image device.
KR1020090054948A 2009-06-19 2009-06-19 Method for processing image and device for displaying image thereof KR101585245B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090054948A KR101585245B1 (en) 2009-06-19 2009-06-19 Method for processing image and device for displaying image thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090054948A KR101585245B1 (en) 2009-06-19 2009-06-19 Method for processing image and device for displaying image thereof

Publications (2)

Publication Number Publication Date
KR20100136712A KR20100136712A (en) 2010-12-29
KR101585245B1 true KR101585245B1 (en) 2016-01-13

Family

ID=43510651

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090054948A KR101585245B1 (en) 2009-06-19 2009-06-19 Method for processing image and device for displaying image thereof

Country Status (1)

Country Link
KR (1) KR101585245B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10509533B2 (en) 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
KR102217198B1 (en) * 2015-11-16 2021-02-18 에스케이텔레콤 주식회사 Apparatus and method for providing augmented reality rendering html contents

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007001026A1 (en) * 2005-06-28 2007-01-04 Matsushita Electric Industrial Co., Ltd. Image processing device, and image processing method
JP2007243733A (en) * 2006-03-09 2007-09-20 Fujifilm Corp Image management apparatus and method, imaging apparatus, program, and image ordering slip

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007001026A1 (en) * 2005-06-28 2007-01-04 Matsushita Electric Industrial Co., Ltd. Image processing device, and image processing method
JP2007243733A (en) * 2006-03-09 2007-09-20 Fujifilm Corp Image management apparatus and method, imaging apparatus, program, and image ordering slip

Also Published As

Publication number Publication date
KR20100136712A (en) 2010-12-29

Similar Documents

Publication Publication Date Title
CN105278902B (en) Mobile terminal and control method thereof
US8983539B1 (en) Smart watch, display device and method of controlling therefor
CN103577066B (en) Electronic installation and the electronic note system using electronic installation
KR102081817B1 (en) Method for controlling digitizer mode
KR101873413B1 (en) Mobile terminal and control method for the mobile terminal
US9529383B2 (en) Display device and method of controlling therefor
KR101976177B1 (en) Mobile terminal and method for controlling of the same
US20140317499A1 (en) Apparatus and method for controlling locking and unlocking of portable terminal
KR20170037424A (en) Mobile terminal and method for controlling the same
KR20160009428A (en) Mobile terminal and method for controlling the same
KR20110134551A (en) Mobile terminal and control method thereof
KR20110080760A (en) Mobile terminal and control method thereof
US20100039401A1 (en) Electronic device and method for viewing displayable medias
KR20140119608A (en) Method and device for providing a private page
KR20120010683A (en) Mobile terminal and control method therof
KR102621809B1 (en) Electronic device and method for displaying screen via display in low power state
KR20170131102A (en) Mobile terminal and method for controlling the same
KR20160023661A (en) Mobile terminal and method for controlling mobile terminal
KR101716893B1 (en) Mobile terminal and control method thereof
KR102109937B1 (en) Method and device for unlocking
KR20110016167A (en) Electronic device and control method thereof
US20190050113A1 (en) Mobile terminal and control method therefor
KR101585245B1 (en) Method for processing image and device for displaying image thereof
KR101987461B1 (en) Mobile terminal and method for controlling of the same
KR102026946B1 (en) Mobile terminal and control method therof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee