KR20120029230A - Transparent display device and method for detecting an object - Google Patents

Transparent display device and method for detecting an object Download PDF

Info

Publication number
KR20120029230A
KR20120029230A KR1020100091195A KR20100091195A KR20120029230A KR 20120029230 A KR20120029230 A KR 20120029230A KR 1020100091195 A KR1020100091195 A KR 1020100091195A KR 20100091195 A KR20100091195 A KR 20100091195A KR 20120029230 A KR20120029230 A KR 20120029230A
Authority
KR
South Korea
Prior art keywords
information
transparent display
image
detected
displayed
Prior art date
Application number
KR1020100091195A
Other languages
Korean (ko)
Other versions
KR101737839B1 (en
Inventor
박희연
주연주
박선주
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100091195A priority Critical patent/KR101737839B1/en
Priority to EP11179960.7A priority patent/EP2431895B1/en
Priority to US13/232,787 priority patent/US20120069050A1/en
Priority to CN201110276141.2A priority patent/CN102402390B/en
Publication of KR20120029230A publication Critical patent/KR20120029230A/en
Application granted granted Critical
Publication of KR101737839B1 publication Critical patent/KR101737839B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A transparent display device and a method for detecting an object are provided to easily obtain information about rearward object without an additional search process. CONSTITUTION: An eye direction recognition unit determines an eye direction(S1020). An object detection unit searches a visible object on a first and a second locations of the transparent display from the selected eye direction(S1030). A CPU(Central Processing Unit) controls the information acquisition of the searched object(S1040). The transparent display displays the obtained object information(S1050).

Description

투명 디스플레이 장치 및 객체 탐지 방법{Transparent display device and method for detecting an object}Transparent display device and method for detecting an object}

본 발명은 투명 디스플레이 장치 및 객체 탐지 방법에 관한 것으로, 보다 상세하게는, 투명 디스플레이를 통해 정보를 제공하는 투명 디스플레이 장치 및 객체 탐지 방법에 관한 것이다.The present invention relates to a transparent display device and an object detection method, and more particularly, to a transparent display device and an object detection method for providing information through the transparent display.

방송 수신기, 개인용 컴퓨터, 노트북, 휴대폰 등과 같은 전자기기는 다양한 기능을 수행할 수 있도록 구성될 수 있다. 그러한 다양한 기능들의 예로 방송 수신 기능, 데이터 및 음성 통신 기능, 카메라를 통해 사진이나 동영상을 촬영하는 기능, 음성 저장 기능, 스피커 시스템을 통한 음악 파일의 재생 기능, 이미지나 비디오의 디스플레이 기능 등이 있다. 일부 단말기는 게임을 실행할 수 있는 추가적 기능을 포함할 수 있다.Electronic devices such as broadcast receivers, personal computers, notebook computers, mobile phones, and the like may be configured to perform various functions. Examples of such various functions include broadcast reception function, data and voice communication function, taking a picture or video through a camera, a voice recording function, a music file playing function through a speaker system, and an image or video display function. Some terminals may include additional functionality to play games.

또한 최근 영상 기술 및 투명 전자 소자 개발 기술이 발달하면서, 후방의 객체가 보이는 한편 디스플레이가 가능한 투명 디스플레이 패널이 활발하게 연구되고 있으며, 전자기기는 디스플레이 패널로 투명 디스플레이 패널을 이용하여 영상 및 데이터를 디스플레이하고 있다. 이러한 투명 디스플레이 패널로 자발광을 이용하는 유기 발광 패널이나 플라즈마 패널이 널리 사용되고 있다.In addition, with the development of image technology and transparent electronic device development technology, transparent display panels capable of displaying objects and displaying behind them are being actively researched, and electronic devices display images and data using transparent display panels as display panels. Doing. As such a transparent display panel, an organic light emitting panel or a plasma panel using self-luminescence is widely used.

본 발명이 이루고자 하는 기술적 과제는 투명 디스플레이를 통해 보이는 객체 중에서 사용자가 선택한 객체에 대한 정보를 제공하는 투명 디스플레이 장치 및 객체 탐지 방법을 제공하는 데 있다.An object of the present invention is to provide a transparent display device and an object detection method for providing information on an object selected by a user among objects visible through the transparent display.

본 발명이 이루고자하는 다른 기술적 과제는 특정 조건에 해당하는 객체가 투명 디스플레이를 통해 보일 때, 해당 객체에 대한 정보를 제공하는 투명 디스플레이 장치 및 객체 탐지 방법을 제공하는 데 있다.Another object of the present invention is to provide a transparent display device and an object detection method for providing information on an object when an object corresponding to a specific condition is seen through the transparent display.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 객체 탐지 방법은 객체 선택 정보를 입력받는 단계, 투명 디스플레이를 통해 보이는 풍경에서 상기 입력된 객체 선택 정보가 지시하는 객체를 탐지하는 단계, 상기 탐지된 객체에 대한 정보를 획득하는 단계 및 상기 획득된 정보를 상기 투명 디스플레이에 디스플레이하는 단계를 포함할 수 있다. 여기서, 상기 객체는 사람, 동물, 사물, 자동차, 건축물 및 자연물 중 적어도 하나를 포함할 수 있다. 또한 상기 객체에 대한 정보는 객체명칭, 객체 종류 정보, 객체 이력 정보, 객체 외형 정보, 객체 무게 정보, 객체의 위치 정보 및 객체에 대한 상세 설명 중 적어도 하나를 포함할 수 있다. 그리고 상기 디스플레이된 정보는 상기 정보가 디스플레이된 위치 및 인식된 제스처에 따라 이동될 수 있다.According to an aspect of the present invention, there is provided a method for detecting an object, the method comprising: receiving object selection information, detecting an object indicated by the input object selection information in a landscape viewed through a transparent display, and detecting the detected object. Acquiring information about the object and displaying the obtained information on the transparent display. Here, the object may include at least one of a person, an animal, an object, a car, a building, and a natural object. The information on the object may include at least one of object name, object type information, object history information, object appearance information, object weight information, object location information, and detailed description of the object. The displayed information may be moved according to the position where the information is displayed and the recognized gesture.

상기 객체 선택 정보를 입력받는 단계는, 상기 투명 디스플레이 상의 제1 위치에서 다운 이벤트(down event)를 검출하는 단계, 및 투명 디스플레이 상의 제2 위치에서 업 이벤트(up event)를 검출하는 단계를 포함할 수 있고, 상기 입력된 객체 선택 정보가 지시하는 객체는 상기 투명 디스플레이상의 상기 제1 위치 및 상기 제2 위치를 포함하는 영역 통해 보이는 객체일 수 있다.Receiving the object selection information may include detecting a down event at a first position on the transparent display, and detecting an up event at a second position on the transparent display. The object indicated by the input object selection information may be an object visible through an area including the first position and the second position on the transparent display.

상기 객체 선택 정보는 이미지, 객체 명칭 및 객체 속성 중 적어도 하나를 포함할 수 있다. 즉 상기 객체를 탐지하는 단계에서, 객체 선택 정보의 이미지와 동일한 이미지를 갖는 객체를 탐지할 수 있고, 객체 선택 정보의 객체 명칭을 갖는 객체를 탐지할 수 있으며, 객체 선택 정보의 객체 속성에 해당하는 객체를 탐지할 수 있다.The object selection information may include at least one of an image, an object name, and an object property. That is, in the detecting of the object, the object having the same image as the image of the object selection information may be detected, the object having the object name of the object selection information may be detected, and the object attribute of the object selection information may be detected. Can detect objects

상기 투명 디스플레이 상에 보이는 상기 탐지된 객체의 형상을 하이라이트하기 위한 표시를 디스플레이할 수 있다. 즉 상기 형상의 둘레를 특정 색으로 표시할 수 있고, 상기 형상의 둘레 또는 상기 형상의 영역이 반짝 거리도록 표시할 수 있다.A display may be displayed for highlighting the shape of the detected object seen on the transparent display. That is, the perimeter of the shape may be displayed in a specific color, and the perimeter of the shape or the area of the shape may be displayed to be shiny.

상기 획득하는 단계는, 서버에 상기 객체에 대한 정보의 검색을 요청하는 단계 및 상기 서버로부터 검색 결과를 수신하는 단계를 포함할 수 있다. 그리고 상기 검색을 요청하는 단계에서, 상기 탐지된 객체의 이미지 및 위치 정보 중 적어도 하나를 전송할 수 있다.The acquiring may include requesting a server to search for information on the object and receiving a search result from the server. In the requesting of the search, at least one of the image and the location information of the detected object may be transmitted.

또한 상기 획득하는 단계는, 상기 객체에 대한 정보를 저장 매체에 저장된 데이터에서 검색하는 단계를 포함할 수 있다.The acquiring may include retrieving information about the object from data stored in a storage medium.

그리고 상기 획득하는 단계는, 상기 객체에 대한 정보를 저장 매체에 저장된 데이터에서 검색하는 단계, 상기 검색하는 단계에서 검색을 실패한 경우에 서버에 상기 객체에 대한 정보의 검색을 요청하는 단계 및 상기 서버로부터 검색 결과를 수신하는 단계를 포함할 수 있다.The acquiring may include: retrieving information about the object from data stored in a storage medium; requesting a server to retrieve information about the object when the search fails in the retrieving; and from the server. Receiving the search results.

상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 투명 디스플레이 장치는, 객체의 형상을 투과하는 투명 디스플레이, 상기 투명 디스플레이를 통해 보이는 풍경에서 수신된 객체 선택 정보가 지시하는 객체를 탐지하고, 상기 탐지된 객체에 대한 정보를 획득하며, 상기 획득된 정보가 상기 투명 디스플레이에 디스플레이되도록 제어하는 제어부를 포함할 수 있다. 상기 객체는 사람, 동물, 사물, 자동차, 건축물 및 자연물 중 적어도 하나를 포함할 수 있다. 또한 상기 객체에 대한 정보는 객체명칭, 객체 종류 정보, 객체 이력 정보, 객체 외형 정보, 객체 무게 정보, 객체의 위치 정보 및 객체에 대한 상세 설명 중 적어도 하나를 포함할 수 있다. 그리고 상기 디스플레이된 정보는 상기 정보가 디스플레이된 위치 및 인식된 제스처에 따라 이동될 수 있다.In order to achieve the above another technical problem, a transparent display device according to the present invention, detects an object indicated by the object selection information received in the transparent display, the shape of the object, the landscape seen through the transparent display, And a control unit for obtaining information about the detected object and controlling the obtained information to be displayed on the transparent display. The object may include at least one of a person, an animal, an object, a car, a building, and a natural object. The information on the object may include at least one of object name, object type information, object history information, object appearance information, object weight information, object location information, and detailed description of the object. The displayed information may be moved according to the position where the information is displayed and the recognized gesture.

상기 제어부는, 상기 투명 디스플레이 상의 제1 위치에서 다운 이벤트(down event)를 검출하고, 투명 디스플레이 상의 제2 위치에서 업 이벤트(up event)를 검출할 수 있고, 여기서 상기 입력된 객체 선택 정보가 지시하는 객체는 상기 투명 디스플레이상의 상기 제1 위치 및 상기 제2 위치를 포함하는 영역 통해 보이는 객체일 수 있다.The controller may detect a down event at a first position on the transparent display and detect an up event at a second position on the transparent display, wherein the input object selection information is instructed. The object may be an object visible through an area including the first position and the second position on the transparent display.

상기 객체 선택 정보는 이미지, 객체 명칭 및 객체 속성 중 적어도 하나를 포함할 수 있다. 즉 상기 제어부는 상기 객체 선택 정보의 이미지를 갖는 객체를 탐지할 수 있고, 객체 명칭을 갖는 객체를 탐지할 수 있으며, 객체 속성에 해당하는 객체를 탐지할 수 있다.The object selection information may include at least one of an image, an object name, and an object property. That is, the controller may detect an object having an image of the object selection information, detect an object having an object name, and detect an object corresponding to an object property.

상기 제어부는, 상기 투명 디스플레이 상에 보이는 상기 탐지된 객체의 형상을 하이라이트하기 위한 표시가 디스플레이되도록 제어할 수 있다. 여기서 상기 표시는 상기 형상의 테두리에 표시될 수 있고, 특정 색으로 표시될 수 있고, 두꺼운 라인 형태로 표시될 수 있다. 또한 상기 제어부는 상기 형상의 테두리 또는 상기 형상이 차지하는 영역이 반짝 거리도록 표시할 수 있다.The controller may control the display to highlight a shape of the detected object displayed on the transparent display. In this case, the display may be displayed on an edge of the shape, may be displayed in a specific color, and may be displayed in the form of a thick line. In addition, the controller may display the edge of the shape or the area occupied by the shape to be shiny.

상기 제어부는, 서버에 상기 객체에 대한 정보 검색을 요청하는 검색 요청 신호를 전송하고, 상기 서버로부터 검색 결과의 수신을 제어할 수 있다. 여기서 상기 검색 요청 신호는 상기 탐지된 객체의 이미지 및 위치 정보 중 적어도 하나를 포함할 수 있다.The control unit may transmit a search request signal for requesting information search for the object to a server, and control reception of a search result from the server. The search request signal may include at least one of an image and location information of the detected object.

상기 제어부는, 상기 객체에 대한 정보를 저장 매체에 저장된 데이터에서 검색할 수 있다. 만일 저장 매체에서 상기 객체에 대한 정보 검색을 실패하면, 상기 제어부는 서버에 상기 객체에 대한 정보 검색을 요청할 수 있다.The controller may search for information about the object in data stored in a storage medium. If retrieving the information on the object from the storage medium, the controller may request a server to retrieve the information on the object.

본 발명에 따른 투명 디스플레이 장치 및 객체 탐지 방법에 의하면, 투명 디스플레이를 통해 보이는 객체 중에서 사용자가 선택한 객체에 대한 정보를 제공하므로, 사용자는 후방 객체에 대한 정보를 별도의 검색 절차 수행할 필요가 없이 용이하게 획득할 수 있고, 특정 조건에 해당하는 객체가 투명 디스플레이 상에 보일 때 해당 객체에 대한 정보를 제공하므로 사용자는 특정 객체의 등장을 계속적으로 관찰할 필요가 없이 원하는 객체에 대한 정보를 용이하게 획득할 수 있다.According to the transparent display device and the object detection method according to the present invention, since the user provides information on the object selected by the user from the objects visible through the transparent display, the user does not need to perform a separate search procedure for the information on the rear object When an object corresponding to a certain condition is displayed on a transparent display, the information about the object is provided so that the user can easily obtain information about the desired object without having to continuously observe the appearance of the specific object. can do.

도 1은 본 발명에 따른 객체 정보 제공 시스템에 대한 바람직한 일실시예 구성을 도시한 도면,
도 2는 객체 선택 정보가 지시하는 객체에 대한 정보가 디스플레이된 상황의 일예를 도시한 도면,
도 3a 내지 도 3c은 객체 선택 정보가 입력되는 방식의 바람직한 일실시예를 도시한 도면,
도 4는 객체 선택 정보가 입력되는 방식의 바람직한 다른 실시예를 도시한 도면,
도 5는 객체 선택 정보가 지시하는 객체에 대한 정보가 디스플레이된 상황의 다른 예를 도시한 도면,
도 6a 내지 도 6d는 각각 객체 선택 정보가 지시하는 객체의 형상을 하이라이트 하기 위한 표시가 디스플레이된 화면을 도시한 도면,
도 7은 탐지된 객체에 대한 정보가 디스플레이된 화면을 도시한 도면,
도 8은 본 발명에 따른 투명 디스플레이 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 9는 투명 디스플레이 장치의 제어부에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 10은 본 발명에 따른 객체 탐지 방법에 대한 바람직한 일실시예의 수행과정을 도시한 블록도,
도 11a 내지 도 11e는 탐지된 객체에 대한 정보 및 인식된 제스처가 디스플레이된 화면을 도시한 도면,
도 12는 탐지된 객체에 대한 정보의 디스플레이를 요청하는 제스처가 디스플레이된 화면을 도시한 도면,
도 13은 객체 탐지 과정에 대한 바람직한 일실시예의 수행과정을 도시한 도면,
도 14는 객체 정보 획득 과정에 대한 바람직한 일실시예의 수행과정을 도시한 도면,
도 15는 객체 정보 획득 과정에 대한 바람직한 다른 실시예의 수행과정을 도시한 도면,
도 16은 본 발명에 따른 객체 탐지 방법에 대한 바람직한 다른 실시예의 수행과정을 도시한 도면, 그리고,
도 17은 본 발명에 따른 투명 디스플레이 장치에 대한 바람직한 다른 실시예의 구성을 도시한 블록도이다.
1 is a view showing a preferred embodiment configuration for an object information providing system according to the present invention,
2 is a diagram illustrating an example of a situation in which information about an object indicated by object selection information is displayed;
3A to 3C are diagrams illustrating one preferred embodiment of a method of inputting object selection information;
4 is a view showing another preferred embodiment of the manner in which object selection information is input;
5 is a diagram illustrating another example of a situation in which information on an object indicated by object selection information is displayed;
6A to 6D illustrate screens on which a display for highlighting the shape of an object indicated by the object selection information is displayed;
7 is a diagram illustrating a screen on which information about a detected object is displayed;
8 is a block diagram showing the configuration of a preferred embodiment of a transparent display device according to the present invention;
9 is a block diagram showing a configuration of a preferred embodiment of the control unit of the transparent display device;
10 is a block diagram showing a process of performing a preferred embodiment of the object detection method according to the present invention;
11A to 11E illustrate screens on which information about a detected object and a recognized gesture are displayed;
12 is a diagram illustrating a screen displaying a gesture for requesting display of information about a detected object;
FIG. 13 is a flowchart illustrating a preferred embodiment of an object detection process; FIG.
14 is a view showing a process of performing a preferred embodiment for the process of obtaining object information;
FIG. 15 is a flowchart illustrating another preferred embodiment of a process for obtaining object information; FIG.
16 is a view showing the implementation of another preferred embodiment of the object detection method according to the present invention;
17 is a block diagram showing the configuration of another preferred embodiment of a transparent display device according to the present invention.

이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention that can specifically realize the above object will be described. At this time, the configuration and operation of the present invention shown in the drawings and described by it will be described as at least one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.The terms used in the present invention have been selected as general terms widely used as possible in consideration of the functions in the present invention, but may vary according to the intention or custom of a person skilled in the art or the emergence of a new technology. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, it is intended that the terms used in the present invention should be defined based on the meanings of the terms and the general contents of the present invention rather than the names of the simple terms.

도 1은 본 발명에 따른 객체 정보 제공 시스템에 대한 바람직한 일실시예 구성을 도시한 도면이다.1 is a diagram showing a preferred embodiment configuration for an object information providing system according to the present invention.

도 1을 참조하면, 본 발명에 따른 객체 정보 제공 시스템(1)은 객체 정보 제공 서버(10), 위치 응용 서버(20), 네트워크(50, 60) 및 투명 디스플레이 장치(100)를 포함할 수 있다.Referring to FIG. 1, the object information providing system 1 according to the present invention may include an object information providing server 10, a location application server 20, a network 50 and 60, and a transparent display device 100. have.

객체 정보 제공 서버(10)는 객체 이미지, 위치 정보, 객체에 대한 정보, 객체 이미지 및 객체에 대한 정보를 연관하는 연관정보, 및 위치 정보 및 객체에 대한 정보를 연관하는 연관정보를 저장할 수 있다. 여기서 객체는 사람, 동물, 사물, 자동차, 건축물 및 자연물 중 적어도 하나를 포함할 수 있다. 또한 객체에 대한 정보는 객체명칭, 객체 종류 정보, 객체 이력 정보, 객체 외형 정보, 객체 무게 정보, 객체의 위치 정보 및 객체에 대한 상세 설명 중 적어도 하나를 포함할 수 있다. 그리고 객체에 대한 정보는 객체 정보라고 명명하고, 객체 이미지는 객체가 촬상된 이미지이다.The object information providing server 10 may store the object image, the location information, the information about the object, the association information relating the object image and the information about the object, and the association information relating the position information and the information about the object. The object may include at least one of a person, an animal, an object, a car, a building, and a natural object. The information about the object may include at least one of object name, object type information, object history information, object appearance information, object weight information, object location information, and detailed description of the object. The information about the object is called object information, and the object image is an image in which the object is photographed.

연관정보는 정보와 정보를 맵핑하는 정보이며, 일예로, 연관정보는 관계 데이터베이스 시스템에서 하나의 테이블명일 수 있다. 객체 정보 제공 서버(10)는 특정 객체 이미지와 매핑하는 객체 정보를 연관정보를 통해 검색할 수 있고, 위치 정보와 매핑하는 객체 정보를 연관정보를 통해 검색할 수 있다.The association information is information mapping information and information. For example, the association information may be one table name in a relational database system. The object information providing server 10 may search for object information that maps to a specific object image through related information, and may search for object information that maps to location information through related information.

객체 정보 제공 서버(10)는 투명 디스플레이 장치(100)로부터 검색 요청 신호를 수신할 수 있다. 여기서 검색 요청 신호는 탐지된 객체의 이미지 및 위치 정보 중 적어도 하나를 포함할 수 있다. 탐지된 객체의 이미지는 투명 디스플레이 장치(100)가 촬상한 사진일 수 있고, 상기 촬상한 사진으로부터 추출된 객체 이미지일 수 있다.The object information providing server 10 may receive a search request signal from the transparent display device 100. The search request signal may include at least one of an image and location information of the detected object. The detected object image may be a photograph taken by the transparent display apparatus 100, or may be an object image extracted from the photographed photograph.

투명 디스플레이 장치(100)로부터 탐지된 객체의 이미지를 포함하는 검색 요청 신호를 수신하면, 객체 정보 제공 서버(10)는 수신된 이미지로부터 해당 객체를 인식하고, 인식된 객체에 대한 정보를 검색할 수 있다. 그리고 객체 정보 제공 서버(10)는 검색된 객체에 대한 정보를 투명 디스플레이 장치(100)로 전송할 수 있다. 여기서 객체 정보 제공 서버(10)는 수신된 이미지와 저장된 객체 이미지를 비교하는 과정을 통해 객체를 인식할 수 있다. 즉 객체 정보 제공 서버(10)는 수신된 이미지에 포함된 객체 이미지와 동일 또는 가장 유사한 객체 이미지를 발견하고, 발견된 객체 이미지 및 저장된 연관정보를 이용하여 상기 인식된 객체에 대한 정보를 검색할 수 있다.When the search request signal including the image of the detected object is received from the transparent display device 100, the object information providing server 10 may recognize the object from the received image and search for information on the recognized object. have. The object information providing server 10 may transmit the information about the found object to the transparent display device 100. Here, the object information providing server 10 may recognize the object by comparing the received image with the stored object image. That is, the object information providing server 10 may find an object image that is the same or most similar to the object image included in the received image, and search for information on the recognized object by using the found object image and the stored related information. have.

투명 디스플레이 장치(100)로부터 탐지된 객체의 위치 정보를 포함하는 검색요청 신호를 수신하면, 객체 정보 제공 서버(10)는 수신된 위치 정보와 매핑되는 객체를 인식하고, 인식된 객체에 대한 정보를 검색할 수 있다. 그리고 객체 정보 제공 서버(10)는 검색된 객체에 대한 정보를 투명 디스플레이 장치(100)로 전송할 수 있다. 여기서 객체 정보 제공 서버(10)는 수신된 위치 정보와 저장된 연관정보를 이용하여 상기 인식된 객체에 대한 정보를 검색할 수 있다.When receiving the search request signal including the location information of the detected object from the transparent display device 100, the object information providing server 10 recognizes the object mapped to the received location information, and the information on the recognized object You can search. The object information providing server 10 may transmit the information about the found object to the transparent display device 100. Here, the object information providing server 10 may search for the information on the recognized object by using the received location information and the stored related information.

투명 디스플레이 장치(100)로부터 탐지된 객체의 이미지 및 위치 정보를 포함하는 검색 요청 신호를 수신하면, 객체 정보 제공 서버(10)는 수신된 객체의 이미지 및 위치 정보를 기초로 해당 객체를 인식하고, 인식된 객체에 대한 정보를 검색할 수 있다. 그리고 객체 정보 제공 서버(10)는 검색된 객체에 대한 정보를 투명 디스플레이 장치(100)로 전송할 수 있다. 여기서 객체 정보 제공 서버(10)는 객체의 이미지에 포함된 객체 이미지와 매핑하는 객체 정보들 중에서 수신된 위치 정보와 매핑하는 객체 정보에 해당하는 객체 정보를 상기 인식된 객체에 대한 정보로 검출할 수 있다.When receiving the search request signal including the image and location information of the detected object from the transparent display device 100, the object information providing server 10 recognizes the object based on the image and location information of the received object, You can retrieve information about recognized objects. The object information providing server 10 may transmit the information about the found object to the transparent display device 100. Here, the object information providing server 10 may detect object information corresponding to the received object information and object information mapping among the object information mapped to the object image included in the image of the object as the information on the recognized object. have.

위치 응용 서버(20)는 투명 디스플레이 장치(100)에 위치기반서비스(LBS: Location Based Service)를 제공할 수 있다. 위치 응용 서버(20)는 투명 디스플레이 장치(100)에 특정 객체에 대한 위치 정보를 제공할 수 있고, 특정 위치의 지도 및 지형 정보를 제공할 수 있다.The location application server 20 may provide a location based service (LBS) to the transparent display device 100. The location application server 20 may provide location information on a specific object to the transparent display device 100, and provide map and terrain information of a specific location.

객체 정보 제공 서버(10), 위치 응용 서버(20) 및 투명 디스플레이 장치(100)는 네트워크로 연결될 수 있다. 네트워크는 인터넷 또는 인트라넷일 수 있고 BCN(Broadband Convergence Network), uBCN(Ultra Broadband Convergence Network)일 수 있다.The object information providing server 10, the location application server 20, and the transparent display device 100 may be connected to a network. The network may be the Internet or an intranet and may be a Broadband Convergence Network (BCN) or an Ultra Broadband Convergence Network (uBCN).

네트워크는 백본망(60)과 가입자망(50)으로 구성될 수 있다. 백본망(60)은 X.25 망, Frame Relay 망, ATM망, MPLS(Multi Protocol Label Switching) 망 및 GMPLS(Generalized Multi Protocol Label Switching) 망 중 하나 또는 복수의 통합된 망으로 구성될 수 있다. 가입자망(50)은 FTTH(Fiber To The Home), ADSL(Asymmetric Digital Subscriber Line), 케이블망, Wireless LAN(IEEE 802.11b, IEEE 802.11a, IEEE802.11g, IEEE802.11n), WIBro(Wireless Broadband), Wimax 및 HSDPA(High Speed Downlink Packet Access)일 수 있다. 가입자망(50)에 투명 디스플레이 장치(100)가 연결될 수 있다.The network may be composed of a backbone network 60 and a subscriber network 50. The backbone network 60 may be composed of one or a plurality of integrated networks of an X.25 network, a Frame Relay network, an ATM network, a Multi Protocol Label Switching (MPLS) network, and a Generalized Multi Protocol Label Switching (GMPLS) network. Subscriber network 50 includes Fiber To The Home (FTTH), Asymmetric Digital Subscriber Line (ADSL), cable network, Wireless LAN (IEEE 802.11b, IEEE 802.11a, IEEE802.11g, IEEE802.11n), WIBro (Wireless Broadband) , Wimax, and High Speed Downlink Packet Access (HSDPA). The transparent display device 100 may be connected to the subscriber network 50.

투명 디스플레이 장치(100)는 객체 선택 정보를 입력받고, 투명 디스플레이를 통해 보이는 풍경에서 입력된 객체 선택 정보가 지시하는 객체를 탐지한다. 그리고 투명 디스플레이 장치(100)는 탐지된 객체에 대한 정보를 디스플레이한다.The transparent display apparatus 100 receives object selection information and detects an object indicated by the object selection information input in a landscape viewed through the transparent display. The transparent display apparatus 100 displays information about the detected object.

도 2는 객체 선택 정보가 지시하는 객체에 대한 정보가 디스플레이된 상황의 일예를 도시한 도면이다.2 is a diagram illustrating an example of a situation in which information about an object indicated by object selection information is displayed.

도 2를 참조하면, 사람(230)이 투명 디스플레이를 통해 보이는 객체(210)를 선택하는 객체 선택 정보를 입력한 경우에, 투명 디스플레이 장치(100)는 입력된 객체 선택 정보가 지시하는 객체(210)를 탐지할 수 있다. 그리고 투명 디스플레이 장치(100)는 탐지된 객체(210)에 대한 정보(215)를 투명 디스플레이에 디스플레이할 수 있다. 여기서 입력된 객체 선택 정보는 투명 디스플레이 장치(100)의 화면상의 특정 지점(251)을 선택하는 신호일 수 있다. 또한 객체 선택 정보가 지시하는 객체(210)는 사람(230)이 선택한 지점(251)을 바라봤을 때의 시선방향을 기준으로 지점(251) 상에서 형상이 보이는 객체일 수 있다.Referring to FIG. 2, when a person 230 inputs object selection information for selecting an object 210 visible through a transparent display, the transparent display apparatus 100 may display an object 210 indicated by the input object selection information. ) Can be detected. In addition, the transparent display apparatus 100 may display the information 215 about the detected object 210 on the transparent display. The object selection information input here may be a signal for selecting a specific point 251 on the screen of the transparent display device 100. In addition, the object 210 indicated by the object selection information may be an object whose shape is displayed on the point 251 based on the eye direction when the person 230 looks at the point 251 selected by the person 230.

도 3a 내지 도 3c은 객체 선택 정보가 입력되는 방식의 바람직한 일실시예를 도시한 도면이다.3A to 3C illustrate exemplary embodiments of a method of inputting object selection information.

도 3a 내지 도 3c를 참조하면, 객체 선택 정보는 제스처로 입력될 수 있다. 여기서 제스처는 단일점(single point) 또는 다중점(multipoint) 제스처, 정적 또는 동적 제스처, 연속적(continuous) 또는 구분된(segmented) 제스처, 및/또는 기타 등등일 수 있다. 단일점 제스처는 단일의 접촉점으로 수행되는 제스처이다, 예를 들어, 이 제스처는 예를 들어 하나의 손가락, 손바닥 또는 스타일러스로부터와 같이 단일의 터치로 수행된다. 다중점 제스처는 다수의 점으로 수행될 수 있는 제스처이다. 예를 들어, 이 제스처는 예를 들어 다수의 손가락, 손가락과 손바닥, 손가락과 스타일러스, 다수의 스타일러스 및/또는 이들의 임의의 조합으로부터와 같이 다수의 터치로 수행된다. 정적 제스처는 움직임을 포함하지 않는 제스처이고, 동적 제스처는 움직임을 포함하는 제스처이다. 연속적 제스처는 단일의 스트로크로 수행되는 제스처이고, 구분된 제스처는 별개의 스텝 또는 스트로크의 시퀀스로 수행되는 제스처이다.3A to 3C, object selection information may be input by a gesture. The gesture here may be a single point or multipoint gesture, a static or dynamic gesture, a continuous or segmented gesture, and / or the like. A single point gesture is a gesture performed with a single point of contact, for example, this gesture is performed with a single touch, for example from one finger, palm or stylus. Multipoint gestures are gestures that can be performed with multiple points. For example, this gesture is performed with multiple touches, for example from multiple fingers, fingers and palms, fingers and stylus, multiple stylus and / or any combination thereof. Static gestures are gestures that do not include movement, and dynamic gestures are gestures that do include movement. Continuous gestures are gestures performed in a single stroke, and distinct gestures are gestures performed in a sequence of separate steps or strokes.

손가락과 터치 스크린의 접촉은 통상적으로 여러 상이한 패턴을 갖는다. 예를 들어, 터치 스크린 상에서의 단일점 제스처는 다운 이벤트(down event) 및 그에 뒤이은 다운 이벤트와 동일한 위치 또는 거의 동일한 위치에서의 업 이벤트(up event)를 포함한다. 터치 스크린 상에서의 동적 제스처는 다운 이벤트와 그에 뒤이은 적어도 하나의 드래깅 이벤트(dragging event), 그리고 그 다음에 오는 업 이벤트를 포함한다.The contact of a finger with the touch screen typically has several different patterns. For example, a single point gesture on a touch screen includes a down event followed by an up event at or about the same location as the down event. Dynamic gestures on the touch screen include a down event followed by at least one dragging event, followed by an up event.

일부 실시예들에서, 손가락이 터치 스크린 디스플레이에 접근하고, 터치 스크린 디스플레이와 접촉하며, 터치 스크린 디스플레이로부터 멀어져가는 프로세스를 기술하기 위해 파라미터가 사용된다. 여기서 터치 스크린 디스플레이는 투명 디스플레이와 일체로 된 터치 스크린일 수 있다. 이 파라미터는 손가락과 터치 스크린 디스플레이 간의 거리, 손가락이 터치 스크린 디스플레이를 누르는 압력, 손가락과 터치 스크린 간의 접촉 면적, 손가락과 터치 스크린 간의 전압, 손가락과 터치 스크린 디스플레이 간의 커패시턴스, 또는 물리 파라미터들 중 적어도 하나의 함수일 수 있다.In some embodiments, parameters are used to describe the process by which a finger approaches a touch screen display, contacts a touch screen display, and moves away from the touch screen display. The touch screen display may be a touch screen integrated with the transparent display. This parameter may be at least one of the distance between the finger and the touch screen display, the pressure at which the finger presses the touch screen display, the contact area between the finger and the touch screen, the voltage between the finger and the touch screen, the capacitance between the finger and the touch screen display, or at least one of the physical parameters. It may be a function of.

일부 실시예들에서, 손가락과 터치 스크린 디스플레이 간의 파라미터(예를 들어, 커패시턴스)의 크기에 따라, 이 파라미터가 미리 정해진 문턱값을 넘을 때, 다운 이벤트가 일어나고, 이 파라미터가 미리 정해진 문턱값을 넘고 있는 동안에 손가락의 대응하는 커서 위치가 위치 A로부터 위치 B로 이동할 때, 드래깅 이벤트가 일어나며, 이 파라미터가 문턱값 레벨 아래로 떨어질 때 업 이벤트가 일어난다.In some embodiments, depending on the magnitude of a parameter (eg, capacitance) between the finger and the touch screen display, when this parameter exceeds a predetermined threshold, a down event occurs and the parameter exceeds the predetermined threshold and While the finger's corresponding cursor position moves from position A to position B, a dragging event occurs, and an up event occurs when this parameter falls below the threshold level.

투명 디스플레이 장치(100)는 제1 위치(310)에서 다운 이벤트를 검출한다. 손가락(301)은 제1 위치(310)에서 제2 위치(320)로 이동한다. 이때 손가락(301)은 투명 디스플레이 장치(100)의 터치 스크린 디스플레이(300)에 접촉된 상태로 이동할 수 있고, 손가락(301)과 터치 스크린 디스플레이(300) 간의 파라미터가 소정의 문턱값을 넘는 상태로 이동할 수 있다. 그리고 투명 디스플레이 장치(100)는 제2 위치(320)에서 드래깅 이벤트를 검출하면, 투명 디스플레이 장치(100)는 제1 위치(310) 및 제2 위치(320)를 포함하는 영역을 지시하는 표시(305)를 터치 스크린 디스플레이(300)에 디스플레이할 수 있다.The transparent display apparatus 100 detects a down event at the first location 310. Finger 301 moves from first position 310 to second position 320. In this case, the finger 301 may move in contact with the touch screen display 300 of the transparent display device 100, and the parameter between the finger 301 and the touch screen display 300 exceeds a predetermined threshold. I can move it. When the transparent display device 100 detects a dragging event at the second location 320, the transparent display device 100 displays a display indicating an area including the first location 310 and the second location 320. 305 may be displayed on the touch screen display 300.

손가락(301)은 제3 위치(330)로 이동하고, 손가락이 터치 스크린 디스플레이(300)로부터 떨어지거나 파라미터가 소정의 문턱값보다 작아지면, 투명 디스플레이 장치(100)는 제3 위치(330)에서 업 이벤트를 검출한다. 업 이벤트를 검출하면, 투명 디스플레이 장치(100)는 제1 위치(310) 및 제3 위치(330)를 포함하는 영역을 지시하는 표시(307)를 디스플레이하고 영역(307)에서 터치 스크린 디스플레이(300)를 통해 보이는 객체(350)를 탐지할 수 있다. 여기서 제1 위치(310)의 다운 이벤트 및 제3 위치(330)의 업 이벤트가 하나의 객체 선택 정보로 인식될 수 있고, 입력된 객체 선택 정보가 지시하는 객체는 영역(307)에 형상이 위치하는 객체(350)일 수 있다.When the finger 301 moves to the third position 330 and the finger is moved away from the touch screen display 300 or the parameter is smaller than a predetermined threshold, the transparent display device 100 is moved to the third position 330. Detect up event. Upon detecting the up event, the transparent display device 100 displays a display 307 indicating an area including the first location 310 and the third location 330 and in the area 307 the touch screen display 300. The visible object 350 may be detected through. Here, the down event of the first location 310 and the up event of the third location 330 may be recognized as one object selection information, and the object indicated by the input object selection information may have a shape in the region 307. It may be an object 350.

도 4는 객체 선택 정보가 입력되는 방식의 바람직한 다른 실시예를 도시한 도면이다.4 illustrates another exemplary embodiment of a method of inputting object selection information.

도 4를 참조하면, 객체 선택 정보는 그래픽 사용자 인터페이스(GUI : Graphic User Interface)를 통해 입력될 수 있다. 객체 선택 정보는 이미지, 객체 명칭 및 객체 속성 중 적어도 하나를 포함할 수 있고, 상기 GUI는 이미지, 객체 명치 및 객체 속성을 입력받기 위한 인터페이스를 제공할 수 있다.Referring to FIG. 4, the object selection information may be input through a Graphic User Interface (GUI). The object selection information may include at least one of an image, an object name, and an object property, and the GUI may provide an interface for receiving an image, an object name, and an object property.

GUI(400)는 특정 자동차를 지시하는 객체 선택 정보를 입력하기 위한 GUI의 일예이다. 사용자는 입력박스(410)에 탐지하기를 원하는 자동차의 이름인 "AAAAAA"(모델명)을 입력할 수 있고, 입력박스(420)에 탐지하기를 원하는 자동차의 색인 "Black"(속성)을 입력할 수 있다.The GUI 400 is an example of a GUI for inputting object selection information indicating a specific vehicle. The user may input "AAAAAA" (model name), which is the name of the car, to be detected in the input box 410, and input the index "Black" (attribute) of the car, which is to be detected, in the input box 420. Can be.

투명 디스플레이 장치(100)는 GUI를 통해 객체 선택 정보를 입력받으면, 입력된 객체 선택 정보를 저장하고, 저장된 객체 선택 정보가 지시하는 객체가 투명 디스플레이를 통해 보여지는지 여부를 탐지할 수 있다. 여기서 보여지는 시선 방향은 투명 디스플레이 장치(100)의 디스플레이의 수직방향일 수 있고, 사용자에 의해 지정된 방향일 수 있고, 객체 선택 정보가 입력되는 동안 사용자의 눈이 위치한 지점에서 투명 디스플레이 장치(100)로의 방향일 수 있다.When the object selection information is received through the GUI, the transparent display apparatus 100 may store the input object selection information and detect whether an object indicated by the stored object selection information is displayed through the transparent display. The gaze direction shown here may be a vertical direction of the display of the transparent display device 100, may be a direction specified by the user, and the transparent display device 100 at a point where the user's eyes are located while the object selection information is input. Direction of the furnace.

도 5는 객체 선택 정보가 지시하는 객체에 대한 정보가 디스플레이된 상황의 다른 예를 도시한 도면이다.5 is a diagram illustrating another example of a situation in which information on an object indicated by object selection information is displayed.

도 5를 참조하면, 투명 디스플레이 장치(100)는 투명 디스플레이를 통해 모델명이 "AAAAAA"이고 색이 "Black"인 자동차(510)가 보여지는지 여부를 탐지하고, 자동차(510)가 탐지되면, 자동차(510)에 대한 정보(511)를 디스플레이한다.Referring to FIG. 5, the transparent display apparatus 100 detects whether or not a car 510 having a model name of “AAAAAA” and a color of “Black” is shown through the transparent display, and when the car 510 is detected, Information 511 about 510 is displayed.

도 6a 내지 도 6d는 각각 객체 선택 정보가 지시하는 객체의 형상을 하이라이트 하기 위한 표시가 디스플레이된 화면을 도시한 도면이다.6A to 6D illustrate screens on which a display for highlighting the shape of an object indicated by the object selection information is displayed.

도 6a 내지 도 6d를 참조하면, 투명 디스플레이 장치(100)는 객체(610)가 탐지되면, 탐지된 객체(610)의 위치를 알리기 위한 표시를 투명 디스플레이(600)에 디스플레이할 수 있다.6A to 6D, when the object 610 is detected, the transparent display apparatus 100 may display a display for notifying the position of the detected object 610 on the transparent display 600.

일부 실시예로, 투명 디스플레이 장치(100)는 탐지된 객체(610)의 형상이 위치하는 영역을 하이라이트하는 테두리선(601)을 투명 디스플레이(600) 상에 디스플레이할 수 있다. 여기서 테두리선(601)은 깜빡거리도록 디스플레이될 수 있다.In some embodiments, the transparent display apparatus 100 may display a border line 601 on the transparent display 600 that highlights an area in which the shape of the detected object 610 is located. Here, the border line 601 may be displayed to flicker.

일부 실시예로, 투명 디스플레이 장치(100)는 탐지된 객체(610)의 형상이 위치하는 영역 내에 표시(602)를 디스플레이할 수 있다. 여기서 표시(602)는 빗금일 수 있고, 특정 색일 수 있으며, 표시(602)는 깜빡거리도록 디스플레이될 수 있다.In some embodiments, the transparent display apparatus 100 may display the display 602 in an area in which the shape of the detected object 610 is located. In this case, the indication 602 may be hatched, may be a specific color, and the indication 602 may be displayed to flicker.

일부 실시예로, 투명 디스플레이 장치(100)는 탐지된 객체(610)의 형상의 외각선을 따라 점선(603)을 표시할 수 있다. 여기서 점선(603)은 깜빡거리도록 디스플레이될 수 있다.In some embodiments, the transparent display device 100 may display a dotted line 603 along the outer line of the shape of the detected object 610. The dotted line 603 may be displayed to blink.

일부 실시예로, 투명 디스플레이 장치(100)는 탐지된 객체(610)의 형상의 외각선을 따라 실선(604)을 표시할 수 있다. 여기서 실선(604)은 굵게 표시될 수 있고, 특정색으로 표시될 수 있으며, 깜빡거리도록 디스플레이될 수 있다.In some embodiments, the transparent display device 100 may display the solid line 604 along the outline of the shape of the detected object 610. Here, the solid line 604 may be displayed in bold, may be displayed in a specific color, and may be displayed to flicker.

도 7은 탐지된 객체에 대한 정보가 디스플레이된 화면을 도시한 도면이다.7 is a diagram illustrating a screen on which information about a detected object is displayed.

도 7을 참조하면, 투명 디스플레이 장치(100)가 동물(710)을 탐지한 경우에, 탐지한 동물(710)에 대한 정보(715)를 디스플레이할 수 있다. 투명 디스플레이 장치(100)는 객체 종류 정보로 요크셔 테리어를 디스플레이하고, 객체 이력 정보로 영국을 디스플레이하고, 객체 외형 정보로 체고 23cm정도를 디스플레이하고, 객체 무게 정보로 3.5kg을 디스플레이하고, 객체에 대한 상세 설명으로 소개 정보, 외모 정보 및 성격 정보를 디스플레이할 수 있다.Referring to FIG. 7, when the transparent display apparatus 100 detects an animal 710, information about the detected animal 710 may be displayed. The transparent display device 100 displays the Yorkshire Terrier as the object type information, displays the UK as the object history information, displays about 23 cm in height as the object appearance information, displays 3.5 kg as the object weight information, and displays the object for the object. The detailed description may display introductory information, appearance information, and personality information.

투명 디스플레이 장치(100)는 탐지된 객체에 대한 정보를 직접 저장 장치로부터 검색하여 획득할 수 있고, 객체 정보 제공 서버(10)에 검색을 요청하여 획득할 수 있다.The transparent display apparatus 100 may retrieve information about the detected object from a storage device directly and obtain the information by requesting a search from the object information providing server 10.

투명 디스플레이 장치(100)는 객체 정보 제공 서버(10)에 탐지된 객체에 대한 검색을 요청하는 검색 요청 신호를 전송할 수 있다. 전송되는 검색 요청 신호는 탐지된 객체의 이미지 및 탐지된 객체의 위치 정보를 포함할 수 있다. 탐지된 객체의 이미지는 촬영 장치가 촬상한 원본 이미지일 수 있고, 투명 디스플레이 장치(100)가 원본 이미지로부터 객체가 차지하는 영역이 추출되어 생성된 이미지일 수 있다.The transparent display apparatus 100 may transmit a search request signal for requesting a search for the detected object to the object information providing server 10. The transmitted search request signal may include an image of the detected object and location information of the detected object. The image of the detected object may be an original image captured by the photographing apparatus, or may be an image generated by extracting a region occupied by the object from the original image by the transparent display apparatus 100.

투명 디스플레이 장치(100)는 탐지된 객체의 위치 정보를 위치 응용 서버(20)로부터 획득할 수 있고, 자신의 위치 정보로부터 탐지된 객체의 위치 정보를 산출할 수 있다.The transparent display apparatus 100 may obtain the location information of the detected object from the location application server 20, and calculate the location information of the detected object from its location information.

투명 디스플레이 장치(100)는 Cell ID 방식, AOA 방식 및 TDOA 방식 등의 네트워크 기반(Network-based) 기술을 이용하여 기지국(40)으로부터 수신된 전파를 통해 자신의 위치를 측위할 수 있다. 또한 투명 디스플레이 장치(100)는 TOA(Time Of Arrivals) 방식, GPS(Global Positioning System) 방식 및 Hybrid 측위 방식 등의 Handset-based 측위 기술을 이용하여 위성(30)로부터 수신된 신호를 통해 자신의 위치를 측위할 수 있다.The transparent display apparatus 100 may position its position through radio waves received from the base station 40 using network-based technologies such as Cell ID scheme, AOA scheme, and TDOA scheme. In addition, the transparent display apparatus 100 uses a handset-based positioning technique such as a time of arrival (TOA) method, a global positioning system (GPS) method, and a hybrid positioning method, to position itself through a signal received from the satellite 30. Can be located.

투명 디스플레이 장치(100)를 중심으로 탐지된 객체의 위치는 영상인식 기반 기술을 이용하여 측위할 수 있다. 일예로, 투명 디스플레이 장치(100)는 교사학습 알고리즘을 이용하여 다수의 촬영 장치로부터 촬영된 객체가 포함된 사진으로부터 객체의 위치를 측위할 수 있다. 다른 예로, 투명 디스플레이 장치(100)는 Vision VR 기반 기술을 이용하여 객체의 위치를 측위할 수 있다. 객체의 위치를 측위하기 위해 영상인식 기반을 기술을 이용하면 수 cm내의 정밀도로 객체의 위치를 탐지할 수 있어, 보다 정확하게 객체의 위치를 탐지할 수 있다.The position of the detected object around the transparent display apparatus 100 may be positioned by using image recognition-based technology. For example, the transparent display apparatus 100 may position the object from a picture including the objects photographed from the plurality of photographing apparatuses using a teacher learning algorithm. As another example, the transparent display apparatus 100 may position the object using Vision VR based technology. By using the image recognition technology to locate the object, the position of the object can be detected with a precision of several centimeters, so that the position of the object can be detected more accurately.

투명 디스플레이 장치(100)를 중심으로 탐지된 객체의 위치는 초음파 기반 기술을 이용하여 측위할 수 있다. 투명 디스플레이 장치(100)는 인식된 시선 방향으로 초음파를 전송하여 전송된 초음파를 통해 탐지된 객체의 거리를 산출할 수 있고, 초음파가 전송된 방향을 통해 객체의 방위각을 결정할 수 있다. 그리고 투명 디스플레이 장치(100)는 산출된 거리 및 결정된 방위각을 기초로 탐지된 객체의 위치를 측위할 수 있다.The position of the detected object around the transparent display apparatus 100 may be positioned by using an ultrasound-based technique. The transparent display apparatus 100 may calculate the distance of the detected object through the transmitted ultrasound by transmitting ultrasound in the recognized gaze direction, and determine the azimuth angle of the object through the direction in which the ultrasound is transmitted. The transparent display apparatus 100 may position the detected object based on the calculated distance and the determined azimuth angle.

도 8은 본 발명에 따른 투명 디스플레이 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.8 is a block diagram showing the configuration of a preferred embodiment of a transparent display device according to the present invention.

도 8을 참조하면, 투명 디스플레이 장치(100)는 튜너부(110), 복조부(120), 네트워크 인터페이스부(130), 신호 처리부(140), 투명 디스플레이(150), 음성 출력부(160), 입력장치(170), 저장부(180), 제어부(190) 및 외부 신호 수신부(135)를 포함한다. 투명 디스플레이 장치(100)는 데스크톱, 랩톱, 태블릿 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있다. 또한 투명 디스플레이 장치(100)는 휴대폰, 스마트폰(smart phone), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이션 등과 같은 이동 단말기일 수 있고, 디지털 TV 같은 고정형 가전기기일 수 있다.Referring to FIG. 8, the transparent display apparatus 100 includes a tuner unit 110, a demodulator 120, a network interface unit 130, a signal processor 140, a transparent display 150, and an audio output unit 160. , An input device 170, a storage unit 180, a controller 190, and an external signal receiver 135. The transparent display device 100 may be a personal computer system such as a desktop, laptop, tablet or handheld computer. In addition, the transparent display device 100 may be a mobile terminal such as a mobile phone, a smart phone, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, or the like. Can be.

튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다. 예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS SIF)로 변환한다. 즉, 튜너부(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS SIF)는 신호처리부(140)로 직접 입력될 수 있다.The tuner unit 110 selects an RF broadcast signal corresponding to a channel selected by a user from among radio frequency (RF) broadcast signals received through an antenna, and converts the selected RF broadcast signal into an intermediate frequency signal or a baseband video or audio signal. To convert. For example, if the selected RF broadcast signal is a digital broadcast signal, it is converted into a digital IF signal (DIF). If the analog broadcast signal is converted into an analog baseband video or audio signal (CVBS SIF). That is, the tuner 110 may process a digital broadcast signal or an analog broadcast signal. The analog baseband video or audio signal CVBS SIF output from the tuner 110 may be directly input to the signal processor 140.

또한, 튜너부(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다. In addition, the tuner unit 110 may receive a single broadcast RF broadcast signal according to an ATSC (Advanced Television System Committee) scheme or a multiple broadcast RF broadcast signal according to a digital video broadcasting (DVB) scheme.

본 발명의 또 다른 실시예에 의하면, 투명 디스플레이 장치(100)는 적어도 2개의 튜너부를 구비할 수 있다. 적어도 2개의 튜너부를 구비하는 경우, 제2 튜너부는 제1 튜너부와 유사하게 안테나를 통해 수신되는 RF 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다.According to another embodiment of the present invention, the transparent display device 100 may include at least two tuner parts. In the case of having at least two tuner units, the second tuner unit selects an RF broadcast signal corresponding to a channel selected by a user from among RF broadcast signals received through an antenna, similarly to the first tuner unit, and intermediates the selected RF broadcast signal. Convert to frequency signal or baseband video or audio signal.

또한, 제2 튜너부는 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. 제2 튜너부는 주기적으로 모든 방송 채널의 변환 작업을 수행할 수 있다. 따라서 투명 디스플레이 장치(100)는 제1 튜너부를 통하여 변환된 방송 신호의 영상을 표시하면서, 제2 튜너부를 통하여 변환된 여러 채널의 영상을 썸 네일 형태로 제공할 수 있다. 이 경우, 제1 튜너부는 사용자가 선택한 메인 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환하고, 제2 튜너부는 메인 RF 방송 신호를 제외한 모든 RF 방송 신호를 순차적/주기적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다.In addition, the second tuner may sequentially select the RF broadcast signals of all the broadcast channels stored through the channel memory function among the received RF broadcast signals and convert them to intermediate frequency signals or baseband video or audio signals. The second tuner may periodically perform the conversion of all broadcast channels. Therefore, the transparent display device 100 may display images of the broadcast signal converted through the first tuner unit and provide images of various channels converted through the second tuner unit in the form of thumbnails. In this case, the first tuner unit converts the main RF broadcast signal selected by the user into an intermediate frequency signal or a baseband video or audio signal, and the second tuner unit sequentially / periodically selects all the RF broadcast signals except for the main RF broadcast signal. This may be converted into an intermediate frequency signal or a baseband video or audio signal.

복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 일예로, 튜너부(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(11-Vestigial Side Band) 복조를 수행한다. 또 다른 예로, 튜너부(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다.The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation. For example, when the digital IF signal output from the tuner unit 110 is an ATSC scheme, the demodulator 120 performs 11-VSGI (11-Vestigial Side Band) demodulation. As another example, when the digital IF signal output from the tuner 110 is a DVB scheme, the demodulator 120 performs coded orthogonal frequency division modulation (COFDMA) demodulation.

또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.Also, the demodulation unit 120 may perform channel decoding. To this end, the demodulator 120 includes a trellis decoder, a de-interleaver, and a reed solomon decoder to perform trellis decoding, deinterleaving, Solomon decoding can be performed.

복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일 수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.The demodulation unit 120 may perform demodulation and channel decoding, and then output a stream signal TS. In this case, the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal. For example, the stream signal may be an MPEG-2 Transport Stream (TS) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, and the like. Specifically, the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.

복조부(120)에서 출력한 스트림 신호는 신호처리부(140)로 입력될 수 있다. 신호처리부(140)는 역다중화 및 신호 처리 등을 수행한 후, 투명 디스플레이(150)에 영상을 출력하고, 음성 출력부(160)로 음성을 출력한다. The stream signal output from the demodulator 120 may be input to the signal processor 140. The signal processor 140 performs demultiplexing and signal processing, and then outputs an image to the transparent display 150, and outputs an audio to the audio output unit 160.

또한, 적어도 2개의 튜너부가 구비된 디지털 방송 수신기의 경우, 그에 대응하는 수의 복조부를 구비할 수 있다. 또한 복조부는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비될 수 있다.In addition, in the case of a digital broadcast receiver having at least two tuners, a number of demodulators corresponding thereto may be provided. The demodulator may be provided separately according to the ATSC scheme and the DVB scheme.

네트워크 인터페이스부(130)는 네트워크로부터 수신되는 패킷(packet)들을 수신하고, 네트워크로 패킷을 전송한다. 네트워크 인터페이스부(130)는 네트워크를 통해 객체 정보 제공 서버(10)로 검색 요청 신호를 전달하는 IP 패킷을 전송하고, 객체 정보 제공 서버(10)로부터 검색 결과를 전달하는 IP 패킷을 전송할 수 있다. 또한 네트워크 인터페이스부(130)는 네트워크를 통해 위치 응용 서버(20)로 위치 정보 요청 신호를 전달하는 IP 패킷을 전송하고, 위치 응용 서버(20)로부터 위치 정보를 전달하는 IP 패킷을 수신할 수 있다.The network interface unit 130 receives the packets received from the network and transmits the packets to the network. The network interface unit 130 may transmit an IP packet transmitting a search request signal to the object information providing server 10 through a network, and may transmit an IP packet delivering a search result from the object information providing server 10. In addition, the network interface unit 130 may transmit an IP packet transmitting a location information request signal to the location application server 20 through a network, and receive an IP packet delivering location information from the location application server 20. .

또한 네트워크 인터페이스부(130)는 네트워크를 통해 서비스 제공 서버로부터 방송 데이터를 전달하는 IP 패킷을 수신한다. 여기서 방송 데이터는 컨텐츠, 컨텐츠 업데이트 여부를 알리는 업데이트 메시지, 메타데이터, 서비스 정보, 소프트웨어 코드 및 A/V 데이터를 포함한다. 또한 서비스 정보는 실시간 방송 서비스에 대한 서비스 정보 및 인터넷 서비스에 대한 서비스 정보를 포함할 수 있다. 여기서 인터넷 서비스는 CoD(Content's on Demand) 서비스, 유튜브 서비스, 날씨, 뉴스, 지역 정보 및 검색 등의 인포메이션 서비스, 게임, 노래방 등의 엔터테인먼트 서비스, TV 메일, TV SMS(Short Message Service) 등의 커뮤니케이션 서비스 등 인터넷을 통해 제공될 수 있는 서비스를 의미한다. 이에 따라 본 발명에서 디지털 방송 수신기는 네트워크 TV, 웹 TV 및 브로드밴드 TV를 포함한다. 또한 방송 서비스는 지상파, 위성 및 케이블을 통해 제공되는 방송 서비스뿐만 아니라 인터넷 서비스를 포함할 수 있다.In addition, the network interface unit 130 receives an IP packet for transmitting broadcast data from a service providing server through a network. Here, the broadcast data includes content, update messages indicating whether to update the content, metadata, service information, software code, and A / V data. In addition, the service information may include service information for the real-time broadcast service and service information for the Internet service. The Internet service includes content services such as CoD (Content's on Demand), YouTube service, weather, news, local information and search, entertainment services such as games and karaoke, TV mail, and TV SMS (Short Message Service). This means a service that can be provided through the Internet. Accordingly, in the present invention, the digital broadcast receiver includes a network TV, a web TV and a broadband TV. In addition, the broadcast service may include an internet service as well as a broadcast service provided through terrestrial, satellite, and cable.

제어부(190)는 명령어를 실행하고 투명 디스플레이 장치(100)와 연관된 동작을 수행한다. 예를 들면, 저장부(180)로부터 검색된 명령어를 사용하여, 제어부(190)는 투명 디스플레이 장치(100)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다. 제어부(190)는 단일 칩, 다수의 칩, 또는 다수의 전기 부품 상에 구현될 수 있다. 예를 들어, 전용 또는 임베디드 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC, 기타 등등을 비롯하여 여러 가지 아키텍처가 제어부(190)에 대해 사용될 수 있다.The controller 190 executes a command and performs an operation associated with the transparent display apparatus 100. For example, the controller 190 may control input and output and reception and processing of data between components of the transparent display apparatus 100 by using a command retrieved from the storage unit 180. The controller 190 may be implemented on a single chip, multiple chips, or multiple electrical components. For example, various architectures may be used for the controller 190, including dedicated or embedded processors, single purpose processors, controllers, ASICs, and the like.

제어부(190)는 운영 체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, Linux, Palm OS, DOS, 안드로이드 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(190)와 연결되어 동작하는 저장부(180) 내에 존재할 수 있다.The controller 190 executes computer code together with an operating system to generate and use data. The operating system is generally known and will not be described in more detail. By way of example, the operating system may be a Window based OS, Unix, Linux, Palm OS, DOS, Android, Macintosh, and the like. The operating system, other computer code, and data may be present in the storage unit 180 that operates in conjunction with the control unit 190.

저장부(180)는 일반적으로 투명 디스플레이 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 예로서, 저장부(180)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 투명 디스플레이 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함한다.The storage unit 180 generally provides a place for storing program codes and data used by the transparent display apparatus 100. For example, the storage unit 180 may be implemented as a read only memory (ROM), a random access memory (RAM), a hard disk drive, or the like. The program code and data may reside in a removable storage medium and may be loaded or installed onto the transparent display device 100 as needed. Removable storage media herein include CD-ROMs, PC-CARDs, memory cards, floppy disks, magnetic tape, and network components.

투명 디스플레이(150)는 제어부(190)와 연결되어 동작할 수 있다. 투명 디스플레이(150)는 유기 발광 패널이나 플라즈마 패널로 구현될 수 있다.The transparent display 150 may operate in connection with the controller 190. The transparent display 150 may be implemented as an organic light emitting panel or a plasma panel.

투명 디스플레이(150)는 투명 디스플레이 장치의 사용자와 운영 체제 또는 운영 체제 상에서 실행 중인 애플리케이션 간의 사용하기 쉬운 인터페이스를 제공하는 그래픽 사용자 인터페이스(GUI)(153)를 디스플레이할 수 있다. GUI(153)는 프로그램, 파일, 및 동작 옵션들을 그래픽 이미지로 표현한다. 그래픽 이미지는 윈도우, 필드, 대화상자, 메뉴, 아이콘, 버튼, 커서 및 스크롤바 등을 포함할 수 있다. 이러한 이미지는 미리 정의된 레이아웃으로 정렬될 수 있거나, 사용자가 취하고 있는 특정의 조치를 돕기 위해 동적으로 생성될 수 있다. 동작 동안에, 사용자는 여러 가지 그래픽 이미지와 연관된 기능 및 작업을 제기하기 위해 그 이미지를 선택 및 활성화할 수 있다. 예로서, 사용자는 윈도우의 열기, 닫기, 최소화, 또는 최대화를 행하는 버튼, 또는 특정 프로그램을 가동시키는 아이콘을 선택할 수 있다.The transparent display 150 may display a graphical user interface (GUI) 153 that provides an easy-to-use interface between a user of the transparent display device and an operating system or an application running on the operating system. The GUI 153 presents the program, file, and operation options in a graphical image. A graphical image may include a window, a field, a dialog box, a menu, an icon, a button, a cursor, a scroll bar, and the like. Such images may be arranged in a predefined layout or may be dynamically generated to help with the particular action the user is taking. During operation, a user can select and activate an image to present functions and tasks associated with various graphical images. By way of example, a user may select a button that opens, closes, minimizes, or maximizes a window, or an icon that launches a particular program.

입력장치(170)는 투명 디스플레이(150) 상에 또는 그 전방에 배치되어 있는 터치 스크린일 수 있다. 터치 스크린은 투명 디스플레이(150)와 일체로 되어 있거나 별개의 구성요소일 수 있다. 터치 스크린이 투명 디스플레이(150)의 전방에 배치됨에 따라 사용자는 GUI(153)를 직접 조작할 수 있다. 예를 들어, 사용자는 단지 제어될 객체 상에 그의 손가락을 올려 놓을 수 있다. 터치패드에서는, 이것과 같은 일대일 관계가 없다.The input device 170 may be a touch screen disposed on or in front of the transparent display 150. The touch screen may be integrated with the transparent display 150 or may be a separate component. As the touch screen is disposed in front of the transparent display 150, the user may directly manipulate the GUI 153. For example, the user may only place his finger on the object to be controlled. In the touchpad, there is no one-to-one relationship like this.

터치패드에 있어서, 터치패드는 투명 디스플레이(150)로부터 떨어져 일반적으로 다른 평면에 놓여 있다. 예를 들어, 투명 디스플레이(150)는 일반적으로 수직 평면에 위치해 있고, 터치패드는 일반적으로 수평 평면에 위치해 있다. 이것은 그의 사용을 덜 직관적이게 하며, 따라서 터치 스크린과 비교할 때 더 어렵다. 터치 스크린인 것에 부가하여, 입력장치(170)는 다중점 입력장치일 수 있다.In the touchpad, the touchpad lies generally in a different plane away from the transparent display 150. For example, the transparent display 150 is generally located in a vertical plane and the touchpad is generally located in a horizontal plane. This makes its use less intuitive and therefore more difficult when compared to a touch screen. In addition to being a touch screen, the input device 170 may be a multipoint input device.

제어부(190)는 입력장치(170)에 가해지는 제스처(171)를 인식하고 인식한 제스처(171)에 기초하여 투명 디스플레이 장치(100)를 제어할 수 있다. 여기서, 제스처는 하나 이상의 특정의 컴퓨팅 동작에 매핑되는, 입력장치(170)와의 양식화된 상호작용으로서 정의될 수 있다. 제스처(171)는 여러 가지 손을 통해, 보다 상세하게는 손가락 움직임을 통해 행해질 수 있다. 다른 대안으로서 또는 그에 부가하여, 제스처는 스타일러스로 행해질 수 있다.The controller 190 may recognize the gesture 171 applied to the input device 170 and control the transparent display apparatus 100 based on the recognized gesture 171. Here, the gesture may be defined as a stylized interaction with the input device 170 that maps to one or more specific computing operations. The gesture 171 may be performed through various hands, and more specifically, through finger movements. As another alternative or in addition, the gesture may be done with a stylus.

입력장치(170)는 제스처(171)를 수신하고, 제어부(190)는 제스처(171)와 연관된 동작들을 수행하는 명령어들을 실행한다. 게다가, 저장부(180)는 운영 체제 또는 별도의 애플리케이션의 일부일 수 있는 제스처 작동 프로그램(181)을 포함할 수 있다. 제스처 작동 프로그램(181)은 일반적으로 제스처(171)의 발생을 인식하고 그 제스처(171) 및/또는 제스처(171)에 응답하여 무슨 조치(들)이 취해져야 하는지를 하나 이상의 소프트웨어 에이전트에게 알려주는 일련의 명령어를 포함한다.The input device 170 receives the gesture 171, and the controller 190 executes commands for performing operations associated with the gesture 171. In addition, the storage unit 180 may include a gesture operating program 181 which may be part of an operating system or a separate application. Gesture operator 181 generally recognizes the occurrence of gesture 171 and in turn responds to gesture 171 and / or gesture 171 to inform one or more software agents of what action (s) should be taken. Contains the command of.

사용자가 하나 이상의 제스처를 행할 때, 입력장치(170)는 제스처 정보를 제어부(190)로 전달한다. 저장부(180)로부터의 명령어, 보다 상세하게는 제스처 작동 프로그램(181)을 사용하여, 제어부(190)는 제스처(171)를 해석하고 저장부(180), 투명 디스플레이(150), 음성 출력부(160), 신호 처리부(140), 네트워크 인터페이스부(130) 및 입력장치(170) 등의 투명 디스플레이 장치(100)의 서로 다른 컴포넌트를 제어한다. 제스처(171)는 저장부(180)에 저장된 애플리케이션에서의 동작을 수행하고, 투명 디스플레이(150) 상에 나타난 GUI 객체를 수정하며, 저장부(180)에 저장된 데이터를 수정하고, 네트워크 인터페이스부(130), 신호 처리부(140)에서의 동작을 수행하는 명령으로서 식별될 수 있다. 예로서, 이들 명령은 줌잉, 패닝, 스크롤링, 페이지 넘김, 회전, 크기조정, 영상 채널 변경, 컨텐츠 수신, 인터넷 접속 등과 연관되어 있을 수 있다. 추가의 예로서, 명령은 또한 특정의 프로그램을 기동시키는 것, 파일 또는 문서를 여는 것, 메뉴를 보는 것, 선택을 하는 것, 명령어를 실행하는 것, 인터넷 사이트 시스템에 로그온하는 것, 인가된 개인에게 컴퓨터 시스템의 제한된 영역에의 액세스를 허용하는 것, 바탕화면의 사용자 선호 배열과 연관된 사용자 프로파일을 로드하는 것, 및/또는 기타 등등과 연관되어 있을 수 있다.When the user performs one or more gestures, the input device 170 transmits gesture information to the controller 190. Using commands from the storage unit 180, more specifically the gesture operation program 181, the controller 190 interprets the gesture 171 and stores the storage unit 180, the transparent display 150, and the voice output unit. Different components of the transparent display device 100 such as the 160, the signal processor 140, the network interface 130, and the input device 170 are controlled. The gesture 171 performs an operation in an application stored in the storage unit 180, modifies a GUI object displayed on the transparent display 150, modifies data stored in the storage unit 180, and a network interface unit ( 130 may be identified as a command for performing an operation in the signal processor 140. By way of example, these commands may be associated with zooming, panning, scrolling, page turning, rotation, resizing, video channel change, content reception, Internet connection, and the like. As a further example, the command may also be used to launch a particular program, open a file or document, view a menu, make a selection, execute a command, log on to an Internet site system, authorized person Permitting access to restricted areas of the computer system, loading a user profile associated with a user's preferred array of desktops, and / or the like.

제어부(190)는 입력장치(170)로부터 수신된 객체 선택 정보를 기초로 객체를 탐지할 수 있다. 만일 객체 선택 정보가 다운 이벤트 및 업 이벤트인 경우에는, 제어부(190)는 다운 이벤트 발생한 제1 위치 및 업 이벤트가 발생한 제2 위치에서 형상이 위치하는 객체를 탐지할 수 있다. 여기서 제어부(190)는 촬영 장치(90)로부터 수신되는 사진을 통해 투명 디스플레이로 향하는 사람의 시선 방향을 인식하고, 인식한 시선 방향에서 상기 제1 위치 및 제2 위치를 포함하는 영역 상에 보이는 객체를 탐지할 수 있다. 그리고 제어부(190)는 탐지된 객체의 객체 정보 획득을 제어하고, 획득한 객체 정보가 디스플레이되도록 투명 디스플레이(150)를 제어할 수 있다.The controller 190 may detect the object based on the object selection information received from the input device 170. If the object selection information is a down event and an up event, the controller 190 may detect an object whose shape is located at a first position where the down event occurs and a second position where the up event occurs. Herein, the controller 190 recognizes a gaze direction of a person heading to the transparent display through a picture received from the photographing apparatus 90, and an object visible on an area including the first position and the second position in the recognized gaze direction. Can be detected. The controller 190 may control object information acquisition of the detected object and control the transparent display 150 to display the obtained object information.

제어부(190)는 입력장치(170)로부터 객체 선택 정보를 수신하고, 수신한 객체 선택 정보가 지시하는 객체가 투명 디스플레이(150)를 통해 보이는지 여부를 확인할 수 있다. 여기서 제어부(190)는 촬영 장치(90)로부터 현재 영상 프레임과 이전 영상 프레임을 비교하여 특정 객체가 새로 촬영되었는지 여부를 확인할 수 있다. 특정 객체가 새로 촬영된 경우에는, 제어부(190)는 촬영된 객체의 이미지를 추출하여 촬영된 객체가 객체 선택 정보가 지시하는 객체인지를 확인할 수 있다. 제어부(190)는 촬영된 객체의 이미지를 이용하여 객체 정보 획득을 제어할 수 있고, 촬영된 객체의 이미지 또는 획득된 객체 정보를 객체 선택 정보와 비교하여 촬영된 객체가 객체 선택 정보가 지시하는 객체인지를 확인할 수 있다.The controller 190 may receive object selection information from the input device 170 and check whether the object indicated by the received object selection information is visible through the transparent display 150. Here, the controller 190 may check whether the specific object is newly photographed by comparing the current image frame with the previous image frame from the photographing apparatus 90. When a specific object is newly photographed, the controller 190 may extract an image of the photographed object to determine whether the photographed object is an object indicated by the object selection information. The controller 190 may control the acquisition of the object information by using the image of the photographed object, and compare the image of the photographed object or the acquired object information with the object selection information and the object to which the photographed object is indicated by the object selection information. You can check if it is.

만일 객체 선택 정보가 지시하는 객체가 보이는 경우에는, 제어부(190)는 상기 객체의 형상이 투명 디스플레이(150) 상에 위치하는 영역을 알리는 표시를 디스플레이할 수 있다. 또한 제어부(190)는 상기 객체의 객체 정보 획득을 제어하고, 획득한 객체 정보가 디스플레이되도록 투명 디스플레이(150)를 제어할 수 있다.If the object indicated by the object selection information is visible, the controller 190 may display a display indicating an area where the shape of the object is located on the transparent display 150. In addition, the controller 190 may control the object information acquisition of the object, and may control the transparent display 150 to display the obtained object information.

외부 신호 수신부(135)는 외부 장치와 투명 디스플레이 장치(100)를 연결할 수 있는 인터페이스를 제공할 수 있다. 여기서 외부 장치는 DVD(Digital Versatile Disk), 블루레이(Bluray), 게임기기, 켐코더, 컴퓨터(노트북) 등 다양한 종류의 영상 또는 음성 출력 장치를 의미한다. 투명 디스플레이 장치(100)는 외부 신호 수신부(135)로부터 수신된 영상 신호 및 음성 신호가 디스플레이되도록 제어할 수 있고, 데이터 신호를 저장하거나 사용할 수 있다.The external signal receiver 135 may provide an interface for connecting the external device to the transparent display device 100. Here, the external device refers to various kinds of video or audio output devices such as a digital versatile disk (DVD), a Blu-ray, a game device, a camcorder, a computer (laptop), and the like. The transparent display apparatus 100 may control the video signal and the audio signal received from the external signal receiver 135 to be displayed, and may store or use the data signal.

또한 외부 장치는 촬영 장치(90)일 수 있다. 촬영 장치(90)는 복수의 카메라를 포함할 수 있다. 촬영 장치(90)는 사람을 촬상할 수 있다. 촬영 장치(90)는 사람의 얼굴 영역을 인식하여 얼굴 영역에 초점을 맞추고, 줌인하여 촬상할 수 있고, 사람의 손 영역을 인식하여 손 영역에 초점을 맞추고, 줌인하여 촬상할 수 있다. 여기서 촬상된 손 모양은 제스처로 인식될 수 있다. 즉 제어부(190)는 인식된 손 모양과 연관된 동작들을 수행하는 명령어들을 실행할 수 있다.Also, the external device may be the photographing device 90. The photographing apparatus 90 may include a plurality of cameras. The imaging device 90 can image a person. The photographing apparatus 90 may recognize a human face area, focus on the face area, and zoom in to capture an image, and recognize the human hand area to focus on the hand area, and zoom in to capture an image. In this case, the captured hand may be recognized as a gesture. That is, the controller 190 may execute commands for performing operations associated with the recognized hand.

촬영 장치(90)는 투명 디스플레이(150)의 후방 객체를 촬상할 수 있다. 즉 촬영 장치(90)는 투명 디스플레이 장치(100)의 제어 신호에 따라 사람의 시선 방향에서 투명 디스플레이(150)를 통해 보이는 객체를 촬상할 수 있다. 촬영 장치(90)는 객체 영역을 인식하여 객체 영역에 초점을 맞추고, 줌인하여 촬상할 수 있다. 또한 객체는 복수의 다른 위치에서 촬영 장치(90)에 의해 촬상될 수 있다.The photographing apparatus 90 may photograph an object behind the transparent display 150. That is, the photographing apparatus 90 may capture an object visible through the transparent display 150 in the direction of the human eye according to the control signal of the transparent display apparatus 100. The photographing apparatus 90 may recognize the object area, focus on the object area, and zoom in to capture an image. The object may also be imaged by the imaging device 90 at a plurality of different locations.

도 9는 투명 디스플레이 장치의 제어부에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.9 is a block diagram illustrating a configuration of a preferred embodiment of the control unit of the transparent display device.

도 9를 참조하면, 제어부(190)는 시선 방향 인식부(910), 중앙 처리부(920) 및 객체 탐지부(930)를 포함할 수 있다.Referring to FIG. 9, the controller 190 may include a gaze direction recognizer 910, a central processor 920, and an object detector 930.

시선 방향 인식부(910)는 촬영장치(92)가 촬영한 영상 프레임에서 얼굴 영역을 검출할 수 있다. 그리고 시선 방향 인식부(910)는 검출한 얼굴 영역에서 눈 영상을 검출하고, 검출한 눈 영상을 이용하여 시선 방향을 결정할 수 있다.The gaze direction recognizing unit 910 may detect a face region in the image frame photographed by the photographing apparatus 92. The gaze direction recognition unit 910 may detect an eye image in the detected face region, and determine a gaze direction using the detected eye image.

시선 방향을 결정하기 위한 일실시예로, 시선 방향 인식부(910)는 저장된 눈 영상들 각각과 검출된 눈 영상의 차이값을 산출하여, 저장된 눈 영상 중에 검출된 눈 영상과의 차이값이 가장 작은 눈 영상을 선택할 수 있다. 그리고 시선 방향 인식부(910)는 선택한 눈 영상과 매핑된 시선 방향 정보가 지시하는 시선 방향을 검출한 눈 영상의 시선 방향으로 결정할 수 있다.In one embodiment for determining the gaze direction, the gaze direction recognizer 910 calculates a difference value between each of the stored eye images and the detected eye image, so that the difference value between the detected eye image is best among the stored eye images. You can select a small eye image. The gaze direction recognizer 910 may determine the gaze direction of the eye image detected by the gaze direction indicated by the gaze direction information mapped to the selected eye image.

중앙 처리부(920)는 촬영장치(92)가 촬영한 영상 프레임에서 손 영역을 검출할 수 있다. 그리고 중앙 처리부(920)는 저장된 손 모양 각각과 검출된 손 영역에 표시된 손 모양을 비교하여, 저장된 손 모양 중 검출된 손 영역에 표시된 손 모양과 같은 손 모양을 선택할 수 있다. 중앙 처리부(920)는 선택된 손 모양과 연관된 동작을 수행하는 명령어를 실행할 수 있다.The central processor 920 may detect a hand region in an image frame captured by the photographing apparatus 92. The central processing unit 920 may select a hand shape such as a hand shape displayed on the detected hand area among the stored hand shapes by comparing each of the stored hand shapes with the hand shapes displayed on the detected hand area. The CPU 920 may execute a command to perform an operation associated with the selected hand.

객체 탐지부(930)는 객체 선택 정보가 지시하는 객체로 촬영장치(94)의 초점의 이동을 제어하고 촬영장치(94)의 촬상을 제어한다.The object detector 930 controls the movement of the focus of the photographing apparatus 94 as an object indicated by the object selection information and controls the imaging of the photographing apparatus 94.

도 10은 본 발명에 따른 객체 탐지 방법에 대한 바람직한 일실시예의 수행과정을 도시한 블록도이다.10 is a block diagram showing a process of performing an embodiment of the object detection method according to the present invention.

도 10을 참조하면, 중앙 처리부(920)는 투명 디스플레이(150) 상의 제1 위치에서 다운 이벤트를 검출한다(S1000).Referring to FIG. 10, the central processing unit 920 detects a down event at a first position on the transparent display 150 (S1000).

중앙 처리부(920)는 투명 디스플레이(150) 상의 제2 위치에서 업 이벤트를 검출한다(S1010).The central processor 920 detects an up event at a second position on the transparent display 150 (S1010).

시선방향 인식부(910)는 시선 방향을 결정한다(S1020). 여기서 시선방향 인식부(910)는 사람 위치한 공간에서 제1 위치 및 제2 위치를 포함하는 영역으로 향하는 방향을 시선 방향으로 결정할 수 있다.The gaze direction recognition unit 910 determines the gaze direction (S1020). Here, the gaze direction recognition unit 910 may determine a direction toward the area including the first position and the second position in the space where the person is located as the gaze direction.

객체 탐지부(930)는 시선방향 인식부(910)가 결정한 시선 방향에서 투명 디스플레이(150) 상의 제1 위치 및 제2 위치를 포함하는 영역을 통해 보이는 객체를 탐지한다(S1030). 여기서 객체는 사람, 동물, 사물, 자동차, 건축물 및 자연물 중 적어도 하나를 포함할 수 있다. 다른 실시에로, 상기 객체는 투명 디스플레이(150)의 수직 방향에서 투명 디스플레이(150) 상의 제1 위치 및 제2 위치를 포함하는 영역을 통해 보이는 객체일 수 있다.The object detector 930 detects an object visible through an area including a first position and a second position on the transparent display 150 in the gaze direction determined by the gaze direction recognizer 910 (S1030). The object may include at least one of a person, an animal, an object, a car, a building, and a natural object. In another embodiment, the object may be an object viewed through an area including a first position and a second position on the transparent display 150 in a vertical direction of the transparent display 150.

중앙 처리부(920)는 탐지한 객체에 대한 정보의 획득을 제어한다(S1040). 여기서 객체에 대한 정보인 객체 정보는 객체명칭, 객체 종류 정보, 객체 이력 정보, 객체 외형 정보, 객체 무게 정보, 객체의 위치 정보 및 객체에 대한 상세 설명 중 적어도 하나를 포함할 수 있다. The central processing unit 920 controls the acquisition of information on the detected object (S1040). The object information, which is information about the object, may include at least one of object name, object type information, object history information, object appearance information, object weight information, object location information, and detailed description of the object.

객체에 대한 정보의 획득 전에, 중앙 처리부(920)는 탐지한 객체의 위치 정보를 산출할 수 있다. 그리고 중앙 처리부(920)는 산출한 위치 정보가 디스플레이되도록 제어할 수 있고, 탐지한 객체에 대한 정보를 획득하기 위해 산출한 위치 정보를 이용할 수 있다. 여기서 중앙 처리부(920)는 탐지된 객체의 위치 정보를 위치 응용 서버(20)로부터 획득할 수 있고, 자신의 위치 정보로부터 탐지된 객체의 위치 정보를 산출할 수 있다. 중앙 처리부(920)는 Cell ID 방식, AOA 방식 및 TDOA 방식 등의 네트워크 기반(Network-based) 기술을 이용하여 기지국(40)으로부터 수신된 전파를 통해 디스플레이 장치(100)의 위치를 측위할 수 있다. 또한 중앙 처리부(920)는 TOA(Time Of Arrivals) 방식, GPS(Global Positioning System) 방식 및 Hybrid 측위 방식 등의 Handset-based 측위 기술을 이용하여 위성(30)로부터 수신된 신호를 통해 자신의 위치를 측위할 수 있다. 또한 중앙 처리부(920)는 디스플레이 장치(100)를 중심으로 탐지된 객체의 위치를 영상인식 기반 기술 또는 초음파 기반 기술을 이용하여 측위할 수 있다.Before obtaining information about the object, the central processing unit 920 may calculate location information of the detected object. The CPU 920 may control the displayed position information to be displayed, and use the calculated position information to obtain information about the detected object. Here, the central processing unit 920 may obtain the location information of the detected object from the location application server 20, and calculate the location information of the detected object from its location information. The central processing unit 920 may position the display apparatus 100 through radio waves received from the base station 40 using network-based technologies such as Cell ID method, AOA method, and TDOA method. . In addition, the central processing unit 920 uses a handset-based positioning technique such as a time of arrival (TOA) method, a global positioning system (GPS) method, and a hybrid positioning method to determine its position through a signal received from the satellite 30. Can be positioned. In addition, the central processing unit 920 may position the detected object based on the display apparatus 100 using image recognition technology or ultrasound technology.

투명 디스플레이(150)는 획득된 객체 정보를 디스플레이한다(S1050). 여기서, 객체 정보는 도 2 및 도 7에 도시된 화면과 같이 디스플레이될 수 있다.The transparent display 150 displays the obtained object information (S1050). Here, the object information may be displayed as shown in the screens shown in FIGS. 2 and 7.

중앙 처리부(920)는 정보 이동 명령이 수신되었는지 여부를 확인한다(S1060). 여기서 정보 이동 명령은 촬영장치(92)가 촬상한 영상 프레임에 포함된 손 모양을 통해 인식된 제스처를 통해 생성된 명령일 수 있고, 다운 이벤트, 드래깅 이벤트 및 업 이벤트로 인식되는 동적 제스처를 통해 생성된 명령일 수 있다.The central processing unit 920 checks whether an information movement command has been received (S1060). The command for moving the information may be a command generated through a gesture recognized through a hand shape included in an image frame captured by the photographing apparatus 92, and generated through a dynamic gesture recognized as a down event, a dragging event, or an up event. May be a command.

정보 이동 명령이 수신된 경우에는, 중앙 처리부(920)는 수신된 정보 이동 명령에 따라 투명 디스플레이(150)상에 디스플레이된 정보의 위치 이동을 제어한다(S1070).When the information movement command is received, the central processing unit 920 controls the movement of the position of the information displayed on the transparent display 150 according to the received information movement command (S1070).

도 11a 내지 도 11e는 탐지된 객체에 대한 정보 및 인식된 제스처가 디스플레이된 화면을 도시한 도면이고, 도 12는 탐지된 객체에 대한 정보의 디스플레이를 요청하는 제스처가 디스플레이된 화면을 도시한 도면이다.11A to 11E are diagrams illustrating a screen on which information about a detected object and a recognized gesture are displayed, and FIG. 12 is a diagram illustrating a screen displaying a gesture for requesting display of information on a detected object. .

도 11a 내지 도 11e 및 도 12를 참조하면, 화면(1110)에서 탐지된 객체(1111)에 대한 객체 정보(1113)는 탐지된 객체(1111)의 상이 위치하는 영역 내에 위치한다. 화면(1110)이 디스플레이된 상태에서 제스처(1115)가 인식되면, 화면(1110)에서 화면(1120)으로 전환된다. 인식되는 제스처(1115)는 화면에 디스플레이될 수 있고, 제스처(1115)와 연관된 명령이 수행되면 화면에서 사라질 수 있다. 일부 실시예로, 인식된 제스처(1115)는 화면에 디스플레이 안 될 수 있다.11A through 11E and 12, the object information 1113 about the object 1111 detected on the screen 1110 is located in an area where an image of the detected object 1111 is located. When the gesture 1115 is recognized while the screen 1110 is displayed, the screen 1110 is switched to the screen 1120. The recognized gesture 1115 may be displayed on the screen, and may disappear from the screen when a command associated with the gesture 1115 is performed. In some embodiments, the recognized gesture 1115 may not be displayed on the screen.

화면(1120)에서 객체 정보(1113)는 제스처(1115)의 손가락이 지시하는 방향에 따라 이동되어 영역(1123)에 디스플레이된다. 화면(1120)이 디스플레이된 상태에서 제스처(1125)가 인식되면, 화면(1120)에서 화면(1130)으로 전환된다.On the screen 1120, the object information 1113 is moved in the direction indicated by the finger of the gesture 1115 and displayed on the area 1123. When the gesture 1125 is recognized while the screen 1120 is displayed, the screen 1120 is switched to the screen 1130.

화명(1130)에서 객체 정보(1123)는 제스처(1125)의 손가락이 지시하는 방향에 따라 이동되어 영역(1133)에 디스플레이된다. 화면(1130)이 디스플레이된 상태에서 제스처(1135)가 인식되면, 화면(1130)에서 화면(1140)으로 전환된다.In the name 1130, the object information 1123 is moved in the direction indicated by the finger of the gesture 1125 and displayed in the area 1133. When the gesture 1135 is recognized while the screen 1130 is displayed, the screen 1130 is switched to the screen 1140.

화면(1140)에서 객체 정보(1133)는 제스처(1135)의 손가락이 지시하는 방향에 따라 이동되어 영역(1143)에 디스플레이된다. 화면(1140)이 디스플레이된 상태에서 제스처(1145)가 인식되면, 화면(1140)에서 화면(1150)으로 전환된다.On the screen 1140, the object information 1133 is moved in the direction indicated by the finger of the gesture 1135 and displayed on the area 1143. When the gesture 1145 is recognized while the screen 1140 is displayed, the screen 1140 is switched to the screen 1150.

화면(1150)에서 객체 정보(1143)는 제스처(1145)의 손가락이 지시하는 방향에 따라 이동되어 영역(1153)에 디스플레이된다. 화면(1150)이 디스플레이된 상태에서 제스처(1155)가 인식되면, 화면(1150)에서 화면(1210)으로 전환된다.On the screen 1150, the object information 1143 is moved in the direction indicated by the finger of the gesture 1145 and displayed on the area 1153. When the gesture 1155 is recognized while the screen 1150 is displayed, the screen 1150 is switched to the screen 1210.

화면(1210)에서 객체 정보(1153)는 제스처(1155)와 연관된 명령인 디스플레이 중지 명령에 따라 디스플레이되지 않는다. 화면(1210)이 디스플레이된 상태에서 제스처(1215)가 인식되면, 화면(1210)에 객체 정보(1153)가 디스플레이될 수 있다. 이때 이전 화면(1150)의 영역(1153)에 객체 정보가 디스플레이될 수 있고, 디폴트로 지정된 영역에 객체 정보가 디스플레이될 수 있다.In the screen 1210, the object information 1153 is not displayed according to the display stop command, which is a command associated with the gesture 1155. When the gesture 1215 is recognized while the screen 1210 is displayed, the object information 1153 may be displayed on the screen 1210. In this case, the object information may be displayed in the region 1153 of the previous screen 1150, and the object information may be displayed in the region designated as a default.

도 13은 객체 탐지 과정에 대한 바람직한 일실시예의 수행과정을 도시한 도면이다.FIG. 13 is a flowchart illustrating a preferred embodiment of an object detection process. FIG.

도 13을 참조하면, 객체 탐지부(930)는 객체를 촬상할 수 있도록 촬영 장치 초점의 이동을 제어한다(S1300). 여기서, 촬영장치(94)는 복수의 카메라로 구성될 수 있고, 객체 탐지부(930)는 각 카메라의 이동을 제어할 수 있다.Referring to FIG. 13, the object detector 930 controls the movement of the focus of the photographing apparatus so as to capture an object (S1300). Here, the photographing apparatus 94 may be configured of a plurality of cameras, the object detector 930 may control the movement of each camera.

객체 탐지부(930)는 이동된 초점에서 촬영장치(94)의 촬상을 제어한다(S1310). The object detector 930 controls imaging of the photographing apparatus 94 at the moved focus (S1310).

객체 탐지부(930)는 촬영장치(94)로부터 객체가 촬상된 이미지의 수신을 제어한다(S1320). 객체 탐지부(930)는 촬영장치(94)로부터 출력된 영상 프레임에서 객체 이미지를 추출할 수 있다. 또한 객체 탐지부(930)는 촬영장치(94)로부터 촬상된 영상 프레임을 통해 객체의 위치를 산출할 수 있다.The object detector 930 controls reception of an image captured by the object from the photographing apparatus 94 (S1320). The object detector 930 may extract an object image from an image frame output from the photographing apparatus 94. In addition, the object detector 930 may calculate the position of the object through the image frame captured by the photographing apparatus 94.

도 14는 객체 정보 획득 과정에 대한 바람직한 일실시예의 수행과정을 도시한 도면이다.14 is a diagram illustrating a preferred embodiment of the process of obtaining the object information.

도 14를 참조하면, 중앙 처리부(920)는 저장부(180)에 저장된 이미지를 독출한다(S1400). 여기서 저장된 이미지는 사전에 투명 디스플레이 장치(100) 주위의 객체를 촬상한 이미지일 수 있다.Referring to FIG. 14, the central processing unit 920 reads an image stored in the storage unit 180 (S1400). The stored image may be an image of an object around the transparent display device 100 in advance.

중앙 처리부(920)는 독출한 이미지와 촬상된 이미지를 비교한다(S1410). 여기서, 독출한 이미지에 포함된 객체의 외각선과 촬상된 이미지에 포함된 객체의 외각선이 동일한 패턴인 경우에는 독출한 이미지에 포함된 객체와 촬상된 이미지에 포함된 객체는 동일한 객체로 인식될 수 있다. 즉 각 외각선의 패턴을 동일한 크기로 하였을 때 매칭되면, 독출한 이미지에 포함된 객체와 촬상된 이미지에 포함된 객체는 동일한 객체로 인식될 수 있다.The central processor 920 compares the read image with the picked-up image (S1410). Here, when the outline of the object included in the read image and the outline of the object included in the captured image have the same pattern, the object included in the read image and the object included in the captured image may be recognized as the same object. have. That is, if the pattern of each outer line is matched with the same size, the object included in the read image and the object included in the captured image may be recognized as the same object.

중앙 처리부(920)는 동일한 객체가 발견되었는지 여부를 확인한다(S1420).The central processing unit 920 checks whether the same object is found (S1420).

동일한 객체가 발견된 경우에는, 중앙 처리부(920)는 저장부(180)에서 발견된 이미지와 연관된 정보를 독출한다(S1430). 여기서 독출된 정보는 촬상된 이미지에 포함된 객체에 대한 정보로 사용될 수 있다. 또한 독출된 정보는 투명 디스플레이 장치(100) 주위의 객체의 객체 정보가 사전에 저장된 정보일 수 있다.If the same object is found, the central processing unit 920 reads out information associated with the image found in the storage unit 180 (S1430). The read information may be used as information about an object included in the captured image. Also, the read information may be information in which object information of objects around the transparent display apparatus 100 is stored in advance.

도 15는 객체 정보 획득 과정에 대한 바람직한 다른 실시예의 수행과정을 도시한 도면이다.FIG. 15 is a flowchart illustrating another exemplary embodiment of an object information acquisition process. Referring to FIG.

도 15를 참조하면, 중앙 처리부(920)는 서버에 객체에 대한 정보의 검색을 요청한다(S1500). 여기서 서버는 객체 정보 제공 서버(10)일 수 있다. 또한 중앙 처리부(920)는 검색 요청 신호를 객체 정보 제공 서버(10)에 전송할 수 있다. 검색 요청 신호는 객체 이미지를 포함할 수 있고, 객체 위치 정보를 포함할 수 있다.Referring to FIG. 15, the central processing unit 920 requests a search for information on an object from a server (S1500). The server may be the object information providing server 10. In addition, the central processing unit 920 may transmit a search request signal to the object information providing server 10. The search request signal may include an object image and may include object location information.

중앙 처리부(920)는 서버로부터 검색 결과의 수신을 제어한다(S1510).The central processing unit 920 controls the reception of the search result from the server (S1510).

도 16은 본 발명에 따른 객체 탐지 방법에 대한 바람직한 다른 실시예의 수행과정을 도시한 도면이다.16 is a view showing the implementation of another preferred embodiment of the object detection method according to the present invention.

도 16을 참조하면, 입력장치(170)는 객체 선택 정보를 입력받는다(S1600). 여기서 객체 선택 정보는 이미지, 객체 명칭 및 객체 속성 중 적어도 하나를 포함할 수 있고 도 4에 도시된 GUI(400)을 통해 입력될 수 있다.Referring to FIG. 16, the input apparatus 170 receives object selection information in operation S1600. The object selection information may include at least one of an image, an object name, and an object property and may be input through the GUI 400 illustrated in FIG. 4.

중앙 처리부(920)는 입력된 객체 선택 정보가 저장부(130)에 저장되도록 제어한다(S1610).The central processor 920 controls the input object selection information to be stored in the storage 130 (S1610).

중앙 처리부(920)는 저장된 객체 선택 정보가 지시하는 객체가 탐지되었는지 여부를 확인한다(S1620). 여기서 중앙 처리부(920)는 저장된 객체 선택 정보가 지시하는 객체가 투명 디스플레이(150)를 통해 보이는지 여부를 확인할 수 있다. 중앙 처리부(920)는 객체 탐지부(930)가 출력한 객체 이미지로부터 상기 객체가 보이는지 여부를 확인할 수 있다. 객체 탐지부(930)는 촬영 장치(90)로부터 현재 영상 프레임과 이전 영상 프레임을 비교하여 특정 객체가 새로 촬영되었는지 여부를 확인할 수 있고, 특정 객체가 새로 촬영된 경우에는, 상기 객체로 촬영 장치(90)의 초점의 이동을 제어하고 촬영 장치(90)로부터 객체가 촬상된 영상 프레임을 획득할 수 있고, 획득된 영상 프레임에서 상기 객체의 객체 이미지를 추출할 수 있다. The central processing unit 920 checks whether an object indicated by the stored object selection information is detected (S1620). Here, the central processing unit 920 may check whether the object indicated by the stored object selection information is visible through the transparent display 150. The central processor 920 may determine whether the object is visible from the object image output by the object detector 930. The object detector 930 may check whether the specific object is newly photographed by comparing the current image frame with the previous image frame from the photographing apparatus 90. It is possible to control the movement of the focal point 90 and obtain an image frame in which the object is captured from the photographing apparatus 90, and extract the object image of the object from the obtained image frame.

제어부(190)는 객체 탐지부(930)가 추출한 객체 이미지를 이용하여 객체 정보 획득을 제어할 수 있고, 촬영된 객체의 이미지 또는 획득된 객체 정보를 객체 선택 정보와 비교하여 새로 촬영된 객체가 객체 선택 정보가 지시하는 객체인지를 확인할 수 있다.The controller 190 may control the acquisition of the object information by using the object image extracted by the object detector 930, and compare the image of the photographed object or the acquired object information with the object selection information so that the newly photographed object is an object. You can check whether the selection information indicates an object.

객체 선택 정보가 지시하는 객체가 탐지된 경우에는, 중앙 처리부(920)는 탐지한 객체에 대한 정보의 획득을 제어한다(S1630). 여기서 객체에 대한 정보인 객체 정보는 객체명칭, 객체 종류 정보, 객체 이력 정보, 객체 외형 정보, 객체 무게 정보, 객체의 위치 정보 및 객체에 대한 상세 설명 중 적어도 하나를 포함할 수 있다. 단계 S1630의 세부 수행과정은 도 14 또는 도 15에 도시된 객체 정보 획득 과정에 따라 수행될 수 있다.When the object indicated by the object selection information is detected, the central processing unit 920 controls acquisition of information on the detected object (S1630). The object information, which is information about the object, may include at least one of object name, object type information, object history information, object appearance information, object weight information, object location information, and detailed description of the object. The detailed execution process of step S1630 may be performed according to the object information acquisition process shown in FIG. 14 or FIG. 15.

객체에 대한 정보의 획득 전에, 중앙 처리부(920)는 탐지한 객체의 위치 정보를 산출할 수 있다. 그리고 중앙 처리부(920)는 산출한 위치 정보가 디스플레이되도록 제어할 수 있고, 탐지한 객체에 대한 정보를 획득하기 위해 산출한 위치 정보를 이용할 수 있다. 여기서 중앙 처리부(920)는 탐지된 객체의 위치 정보를 위치 응용 서버(20)로부터 획득할 수 있고, 자신의 위치 정보로부터 탐지된 객체의 위치 정보를 산출할 수 있다. 중앙 처리부(920)는 Cell ID 방식, AOA 방식 및 TDOA 방식 등의 네트워크 기반(Network-based) 기술을 이용하여 기지국(40)으로부터 수신된 전파를 통해 디스플레이 장치(100)의 위치를 측위할 수 있다. 또한 중앙 처리부(920)는 TOA(Time Of Arrivals) 방식, GPS(Global Positioning System) 방식 및 Hybrid 측위 방식 등의 Handset-based 측위 기술을 이용하여 위성(30)로부터 수신된 신호를 통해 자신의 위치를 측위할 수 있다. 또한 중앙 처리부(920)는 디스플레이 장치(100)를 중심으로 탐지된 객체의 위치를 영상인식 기반 기술 또는 초음파 기반 기술을 이용하여 측위할 수 있다.Before obtaining information about the object, the central processing unit 920 may calculate location information of the detected object. The CPU 920 may control the displayed position information to be displayed, and use the calculated position information to obtain information about the detected object. Here, the central processing unit 920 may obtain the location information of the detected object from the location application server 20, and calculate the location information of the detected object from its location information. The central processing unit 920 may position the display apparatus 100 through radio waves received from the base station 40 using network-based technologies such as Cell ID method, AOA method, and TDOA method. . In addition, the central processing unit 920 uses a handset-based positioning technique such as a time of arrival (TOA) method, a global positioning system (GPS) method, and a hybrid positioning method to determine its position through a signal received from the satellite 30. Can be positioned. In addition, the central processing unit 920 may position the detected object based on the display apparatus 100 using image recognition technology or ultrasound technology.

투명 디스플레이(150)는 획득된 객체 정보를 디스플레이한다(S1640). 여기서, 객체 정보는 도 5 및 도 7에 도시된 화면과 같이 디스플레이될 수 있다. 또한 중앙 처리부(920)는 투명 디스플레이(150) 상에 탐지된 객체의 형상이 위치하는 영역을 알리는 표시가 디스플레이되도록 제어 수 있다.The transparent display 150 displays the obtained object information (S1640). Here, the object information may be displayed as shown in the screens shown in FIGS. 5 and 7. In addition, the central processing unit 920 may control to display a display indicating the area where the shape of the detected object is located on the transparent display 150.

도 16의 객체 탐지 방법은 도시되어 있지 않으나 도 10의 객체 탐지 방법의 단계 S1060 및 S1070을 더 포함할 수 있다.Although the object detecting method of FIG. 16 is not shown, the method may further include steps S1060 and S1070 of the object detecting method of FIG. 10.

도 17은 본 발명에 따른 투명 디스플레이 장치에 대한 바람직한 다른 실시예의 구성을 도시한 블록도이다.17 is a block diagram showing the configuration of another preferred embodiment of a transparent display device according to the present invention.

도 17의 투명 디스플레이 장치(100)는 튜너부(110), 복조부(120), 네트워크 인터페이스부(130), 신호 처리부(140), 투명 디스플레이(150), 음성 출력부(160), 입력장치(170), 저장부(180), 제어부(190), 외부 신호 수신부(1735) 및 촬영 장치(1790)를 포함한다. 제어부(190)는 촬영 장치(1790)의 이동, 포커스, 줌인 및 줌 아웃 그리고 촬상을 제어한다. 촬영 장치(1790)는 제어부의 제어에 따라 투명 디스플레이(150)를 통해 보이는 후방 객체 및 투명 디스플레이(150)의 주위에 위치하는 사람을 촬상한다. 촬영 장치(150)는 복수의 카메라를 포함할 수 있다.The transparent display device 100 of FIG. 17 includes a tuner unit 110, a demodulator unit 120, a network interface unit 130, a signal processor 140, a transparent display 150, a voice output unit 160, and an input device. 170, a storage unit 180, a controller 190, an external signal receiver 1735, and a photographing apparatus 1790. The controller 190 controls the movement, focus, zoom in and zoom out, and imaging of the photographing apparatus 1790. The photographing apparatus 1790 photographs a rear object visible through the transparent display 150 and a person located around the transparent display 150 under the control of the controller. The photographing apparatus 150 may include a plurality of cameras.

도 17의 투명 디스플레이 장치(100)는 촬영 장치(1790)를 포함한다는 점에서 도 8의 투명 디스플레이 장치(100)와 차이가 있으며, 도 17의 투명 디스플레이 장치(100)의 나머지 구성요소는 각각 도 8의 투명 디스플레이 장치(100)의 구성요소와 대응되는 점에서, 각 구성요소에 대한 상세한 설명을 이하 생략한다.17 is different from the transparent display apparatus 100 of FIG. 8 in that the transparent display apparatus 100 of FIG. 17 includes a photographing apparatus 1790, and the remaining components of the transparent display apparatus 100 of FIG. In the correspondence with the components of the transparent display apparatus 100 of FIG. 8, detailed description of each component will be omitted below.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer apparatus is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific preferred embodiments described above, and the present invention belongs to the present invention without departing from the gist of the present invention as claimed in the claims. Various modifications can be made by those skilled in the art, and such changes are within the scope of the claims.

Claims (20)

객체 선택 정보를 입력받는 단계;
투명 디스플레이를 통해 보이는 풍경에서 상기 입력된 객체 선택 정보가 지시하는 객체를 탐지하는 단계;
상기 탐지된 객체에 대한 정보를 획득하는 단계; 및
상기 획득된 정보를 상기 투명 디스플레이에 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 객체 탐지 방법.
Receiving object selection information;
Detecting an object indicated by the input object selection information in a landscape viewed through a transparent display;
Obtaining information about the detected object; And
And displaying the obtained information on the transparent display.
제 1항에 있어서,
상기 객체 선택 정보를 입력받는 단계는,
상기 투명 디스플레이 상의 제1 위치에서 다운 이벤트(down event)를 검출하는 단계; 및
투명 디스플레이 상의 제2 위치에서 업 이벤트(up event)를 검출하는 단계;를 포함하고,
상기 입력된 객체 선택 정보가 지시하는 객체는 상기 투명 디스플레이상의 상기 제1 위치 및 상기 제2 위치를 포함하는 영역을 통해 보이는 객체인 것을 특징으로 하는 객체 탐지 방법.
The method of claim 1,
Receiving the object selection information,
Detecting a down event at a first location on the transparent display; And
Detecting an up event at a second location on the transparent display;
And an object indicated by the input object selection information is an object visible through an area including the first position and the second position on the transparent display.
제 1항에 있어서,
상기 객체 선택 정보는 이미지, 객체 명칭 및 객체 속성 중 적어도 하나를 포함하는 것을 특징으로 하는 객체 탐지 방법.
The method of claim 1,
The object selection information includes at least one of an image, an object name, and an object property.
제 1항에 있어서,
상기 투명 디스플레이 상에 보이는 상기 탐지된 객체의 형상을 하이라이트하기 위한 표시를 디스플레이하는 것을 특징으로 하는 객체 탐지 방법.
The method of claim 1,
Displaying an indication for highlighting the shape of the detected object visible on the transparent display.
제 1항에 있어서,
상기 획득하는 단계는,
서버에 상기 객체에 대한 정보의 검색을 요청하는 단계; 및
상기 서버로부터 검색 결과를 수신하는 단계;를 포함하는 것을 특징으로 하는 객체 탐지 방법.
The method of claim 1,
The obtaining step,
Requesting a server to retrieve information about the object; And
Receiving a search result from the server; object detection method comprising a.
제 5항에 있어서,
상기 검색을 요청하는 단계에서,
상기 탐지된 객체의 이미지 및 위치 정보 중 적어도 하나를 전송하는 것을 특징으로 하는 객체 탐지 방법.
6. The method of claim 5,
In requesting the search,
Transmitting at least one of an image and location information of the detected object.
제 1항에 있어서,
상기 획득하는 단계는,
상기 객체에 대한 정보를 저장 매체에 저장된 데이터에서 검색하는 단계를 포함하는 것을 특징으로 하는 객체 탐지 방법.
The method of claim 1,
The obtaining step,
And retrieving information about the object from data stored in a storage medium.
제 1항에 있어서,
상기 객체는 사람, 동물, 사물, 자동차, 건축물 및 자연물 중 적어도 하나를 포함하는 것을 특징으로 하는 객체 탐지 방법.
The method of claim 1,
The object detection method comprising at least one of a person, an animal, an object, a car, a building, and a natural object.
제 1항에 있어서,
상기 객체에 대한 정보는 객체명칭, 객체 종류 정보, 객체 이력 정보, 객체 외형 정보, 객체 무게 정보, 객체의 위치 정보 및 객체에 대한 상세 설명 중 적어도 하나를 포함하는 것을 특징으로 하는 객체 탐지 방법.
The method of claim 1,
The information about the object includes at least one of object name, object type information, object history information, object appearance information, object weight information, object location information, and detailed description of the object.
제 1항에 있어서,
상기 디스플레이된 정보는 상기 정보가 디스플레이된 위치 및 인식된 제스처에 따라 이동되는 것을 특징으로 하는 객체 탐지 방법.
The method of claim 1,
Wherein the displayed information is moved according to the displayed position and the recognized gesture.
객체의 형상을 투과하는 투명 디스플레이;
선택 정보를 수신하고, 상기 투명 디스플레이를 통해 보이는 풍경에서 상기 수신된 객체 선택 정보가 지시하는 객체를 탐지하고, 상기 탐지된 객체에 대한 정보를 획득하며, 상기 획득된 정보가 상기 투명 디스플레이에 디스플레이되도록 제어하는 제어부;를 포함하는 것을 특징으로 하는 투명 디스플레이 장치.
A transparent display that transmits the shape of the object;
Receive selection information, detect an object indicated by the received object selection information in a landscape viewed through the transparent display, obtain information about the detected object, and display the obtained information on the transparent display; And a control unit for controlling the transparent display device.
제 11항에 있어서,
상기 제어부는,
상기 투명 디스플레이 상의 제1 위치에서 다운 이벤트(down event)를 검출하고, 투명 디스플레이 상의 제2 위치에서 업 이벤트(up event)를 검출하며, 여기서 상기 입력된 객체 선택 정보가 지시하는 객체는 상기 투명 디스플레이상의 상기 제1 위치 및 상기 제2 위치를 포함하는 영역을 통해 보이는 객체인 것을 특징으로 하는 투명 디스플레이 장치.
12. The method of claim 11,
The control unit,
Detecting a down event at a first location on the transparent display and detecting an up event at a second location on the transparent display, wherein the object indicated by the input object selection information is the transparent display; And an object visible through an area including the first position and the second position on the image.
제 11항에 있어서,
상기 객체 선택 정보는 이미지, 객체 명칭 및 객체 속성 중 적어도 하나를 포함하는 것을 특징으로 하는 투명 디스플레이 장치.
12. The method of claim 11,
The object selection information includes at least one of an image, an object name, and an object property.
제 11항에 있어서,
상기 제어부는,
상기 투명 디스플레이 상에 보이는 상기 탐지된 객체의 형상을 하이라이트하기 위한 표시가 디스플레이되도록 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
12. The method of claim 11,
The control unit,
And display a display for highlighting the shape of the detected object visible on the transparent display.
제 11항에 있어서,
상기 제어부는,
서버에 상기 객체에 대한 정보 검색을 요청하는 검색 요청 신호를 전송하고, 상기 서버로부터 검색 결과의 수신을 제어하는 것을 특징으로 하는 투명 디스플레이 장치.
12. The method of claim 11,
The control unit,
And transmitting a search request signal for requesting information search for the object to a server, and controlling reception of a search result from the server.
제 15항에 있어서,
상기 검색 요청 신호는 상기 탐지된 객체의 이미지 및 위치 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 투명 디스플레이 장치.
16. The method of claim 15,
The search request signal includes at least one of an image and location information of the detected object.
제 11항에 있어서,
상기 제어부는,
상기 객체에 대한 정보를 저장 매체에 저장된 데이터에서 검색하는 것을 특징으로 하는 투명 디스플레이 장치.
12. The method of claim 11,
The control unit,
And retrieving information about the object from data stored in a storage medium.
제 11항에 있어서,
상기 객체는 사람, 동물, 사물, 자동차, 건축물 및 자연물 중 적어도 하나를 포함하는 것을 특징으로 하는 투명 디스플레이 장치.
12. The method of claim 11,
The object may include at least one of a person, an animal, an object, a car, a building, and a natural object.
제 11항에 있어서,
상기 객체에 대한 정보는 객체명칭, 객체 종류 정보, 객체 이력 정보, 객체 외형 정보, 객체 무게 정보, 객체의 위치 정보 및 객체에 대한 상세 설명 중 적어도 하나를 포함하는 것을 특징으로 하는 투명 디스플레이 장치.
12. The method of claim 11,
The information about the object includes at least one of object name, object type information, object history information, object appearance information, object weight information, object position information, and detailed description of the object.
제 11항에 있어서,
상기 디스플레이된 정보는 상기 정보가 디스플레이된 위치 및 인식된 제스처에 따라 이동되는 것을 특징으로 하는 투명 디스플레이 장치.
12. The method of claim 11,
And wherein the displayed information is moved according to the displayed position and the recognized gesture.
KR1020100091195A 2010-09-16 2010-09-16 Transparent display device and method for detecting an object KR101737839B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020100091195A KR101737839B1 (en) 2010-09-16 2010-09-16 Transparent display device and method for detecting an object
EP11179960.7A EP2431895B1 (en) 2010-09-16 2011-09-02 Transparent display device and method for providing information using the same
US13/232,787 US20120069050A1 (en) 2010-09-16 2011-09-14 Transparent display device and method for providing information using the same
CN201110276141.2A CN102402390B (en) 2010-09-16 2011-09-16 Transparent display device and use transparent display device provide the method for information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100091195A KR101737839B1 (en) 2010-09-16 2010-09-16 Transparent display device and method for detecting an object

Publications (2)

Publication Number Publication Date
KR20120029230A true KR20120029230A (en) 2012-03-26
KR101737839B1 KR101737839B1 (en) 2017-05-19

Family

ID=46133763

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100091195A KR101737839B1 (en) 2010-09-16 2010-09-16 Transparent display device and method for detecting an object

Country Status (1)

Country Link
KR (1) KR101737839B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101374316B1 (en) * 2012-05-02 2014-03-14 (주) 미디어인터랙티브 Apparatus for recognizing gesture by using see-through display and Method thereof
KR20140033652A (en) * 2012-09-10 2014-03-19 삼성전자주식회사 Transparent display apparatus and object selection method thereof
WO2014116014A1 (en) * 2013-01-22 2014-07-31 Samsung Electronics Co., Ltd. Transparent display apparatus and method thereof
WO2015072604A1 (en) * 2013-11-15 2015-05-21 엘지전자(주) Transparent display device and control method therefor
KR20150061331A (en) * 2013-11-27 2015-06-04 한국전자통신연구원 Method for controlling electric devices using transparent display and apparatus using the same
KR20150093090A (en) * 2014-02-06 2015-08-17 삼성전자주식회사 Apparatus and method for controlling displays
RU2617544C2 (en) * 2013-03-18 2017-04-25 Общество с ограниченной ответственностью "СликДжамп" Method and system of displaying advertising on devices with touch display

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102294578B1 (en) * 2019-12-26 2021-08-26 주식회사 포스코아이씨티 System for Searching Object for Robot Process Automation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009192448A (en) * 2008-02-18 2009-08-27 Tama Art Univ Information display device and information providing system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101374316B1 (en) * 2012-05-02 2014-03-14 (주) 미디어인터랙티브 Apparatus for recognizing gesture by using see-through display and Method thereof
KR20140033652A (en) * 2012-09-10 2014-03-19 삼성전자주식회사 Transparent display apparatus and object selection method thereof
WO2014116014A1 (en) * 2013-01-22 2014-07-31 Samsung Electronics Co., Ltd. Transparent display apparatus and method thereof
US9857867B2 (en) 2013-01-22 2018-01-02 Samsung Electronics Co., Ltd. Transparent display apparatus and method thereof
US10175749B2 (en) 2013-01-22 2019-01-08 Samsung Electronics Co., Ltd. Transparent display apparatus and method thereof
US10509460B2 (en) 2013-01-22 2019-12-17 Samsung Electronics Co., Ltd. Transparent display apparatus and method thereof
RU2617544C2 (en) * 2013-03-18 2017-04-25 Общество с ограниченной ответственностью "СликДжамп" Method and system of displaying advertising on devices with touch display
WO2015072604A1 (en) * 2013-11-15 2015-05-21 엘지전자(주) Transparent display device and control method therefor
US9990034B2 (en) 2013-11-15 2018-06-05 Lg Electronics Inc. Transparent display device and control method therefor
KR20150061331A (en) * 2013-11-27 2015-06-04 한국전자통신연구원 Method for controlling electric devices using transparent display and apparatus using the same
KR20150093090A (en) * 2014-02-06 2015-08-17 삼성전자주식회사 Apparatus and method for controlling displays

Also Published As

Publication number Publication date
KR101737839B1 (en) 2017-05-19

Similar Documents

Publication Publication Date Title
KR20120029228A (en) Transparent display device and method for providing object information
EP2431895B1 (en) Transparent display device and method for providing information using the same
KR101737839B1 (en) Transparent display device and method for detecting an object
KR101832757B1 (en) An electronic device, a method for auto configuring menu using the same
US9509959B2 (en) Electronic device and control method thereof
KR20180026160A (en) Method for controlling source device at sink device and apparatus for the same
CN108958580B (en) Display control method and terminal equipment
KR101719989B1 (en) An electronic device and a interface method for configurating menu using the same
US20140192081A1 (en) Method and apparatus for laying out image using image recognition
AU2013264497A1 (en) Multiple display method with multiple communication terminals, machine-readable storage medium and communication terminal
US8718624B2 (en) Electronic device and method for transmitting data
US11250046B2 (en) Image viewing method and mobile terminal
KR101727040B1 (en) An electronic device, a method for providing menu using the same
KR20180058445A (en) Mobile terminal and operating method thereof
KR101663619B1 (en) Transparent display device and method for providing local information
KR20180055497A (en) Display device and operating method thereof
CN108595104B (en) File processing method and terminal
KR101789617B1 (en) An electronic device, a interface method for configuring menu using the same
CN106792224B (en) Terminal and video playing method
CN106657572B (en) Terminal and display method
KR20140051804A (en) Display apparatus and method of controlling the smae
KR20120040347A (en) An electronic device, a method for providing moving information using the same
KR20180085555A (en) Display device and operating method thereof
KR101805532B1 (en) An electronic device, a method for auto configuring menu using the same
KR20120038826A (en) An electronic device and a method for providing electronic diary service, and an interface method for electronic diary service

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right