KR101268640B1 - Display system and method for large screen - Google Patents

Display system and method for large screen Download PDF

Info

Publication number
KR101268640B1
KR101268640B1 KR1020110059290A KR20110059290A KR101268640B1 KR 101268640 B1 KR101268640 B1 KR 101268640B1 KR 1020110059290 A KR1020110059290 A KR 1020110059290A KR 20110059290 A KR20110059290 A KR 20110059290A KR 101268640 B1 KR101268640 B1 KR 101268640B1
Authority
KR
South Korea
Prior art keywords
user
images
large screen
image information
camera
Prior art date
Application number
KR1020110059290A
Other languages
Korean (ko)
Other versions
KR20120139470A (en
Inventor
최은석
최유진
이은경
정윤하
박상화
이연진
김요한
최종민
고아진
임대운
정선애
김기정
김보슬
김인경
김지현
신승민
김준희
구자민
두준호
Original Assignee
(주)디스트릭트홀딩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)디스트릭트홀딩스 filed Critical (주)디스트릭트홀딩스
Priority to KR1020110059290A priority Critical patent/KR101268640B1/en
Publication of KR20120139470A publication Critical patent/KR20120139470A/en
Application granted granted Critical
Publication of KR101268640B1 publication Critical patent/KR101268640B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 실시예들은 대형 스크린을 위한 디스플레이 시스템에 관한 것으로, 사용자들을 촬영하고 인식함에 따라 대형 스크린에 이전과 다른 이미지들을 디스플레이하는 시스템에 관련된다.Embodiments of the present invention relate to a display system for a large screen, and to a system for displaying images different from before on a large screen as the users are photographed and recognized.

Description

대형 스크린을 위한 디스플레이 시스템 및 그 시스템의 동작 방법{DISPLAY SYSTEM AND METHOD FOR LARGE SCREEN}DISPLAY SYSTEM AND METHOD FOR LARGE SCREEN}

아래 실시예들은 대형 스크린을 위한 디스플레이 시스템에 관한 것으로, 사용자들을 촬영하고 인식함에 따라 대형 스크린에 이전과 다른 이미지들을 디스플레이하는 시스템에 관련된다. The embodiments below relate to a display system for a large screen, which relates to a system for displaying images different from before on a large screen as the users are photographed and recognized.

대형 스크린은 일반적으로, 대형 크기의 화면과 그 화면에 이미지를 투사하는 프로젝터를 구비하여, 동일 공간에 있는 사용자들에게 대형 크기의 이미지들을 보여주는 장치이다.A large screen is generally a device that displays a large sized image to users in the same space with a large sized screen and a projector that projects the image onto the screen.

디스플레이 기술의 발전과 더불어서, 대형 스크린은 영화관, 전시 공간, 미술관, 발표회장 및 거리 등과 같이 많은 곳에서 이용되고 있다.With the development of display technology, large screens are used in many places such as movie theaters, exhibition spaces, art galleries, presentation halls and streets.

또한, 대형 스크린이 디스플레이하는 이미지들의 종류도 광고, 영화 및 전시 등으로 점차 다양화되는 추세이다.In addition, the types of images displayed on a large screen are gradually diversified into advertisements, movies, and exhibitions.

본 발명의 실시예에 따르면, 사용자들이 터치 스크린을 통해 자신들을 촬영함에 응답하여, 각 사용자들에 대응하는 이미지들을 대형 스크린에 자동으로 디스플레이할 수 있는 대형 스크린 디스플레이 시스템 및 그 시스템의 동작 방법을 제공한다.According to an embodiment of the present invention, in response to users photographing themselves through a touch screen, a large screen display system and a method of operating the system can automatically display images corresponding to each user on a large screen. do.

특히, 본 발명의 실시 예에 의하면, 대형 스크린에서 사용자들 각각에 대응하는 이미지들을 조합되어 보여질 수 있으며, 나아가 이 조합된 이미지들이 사용자들의 감정, 표정, 나이, 성별, 움직임 및 의복정보 중 적어도 하나에 따라 자동으로 변화될 수 있는 대형 스크린 디스플레이 시스템 및 그 시스템의 동작 방법을 제공한다.In particular, according to an exemplary embodiment of the present invention, images corresponding to each of the users may be combined and displayed on a large screen, and the combined images may include at least one of emotions, facial expressions, age, gender, movement, and clothing information of the users. It provides a large screen display system that can be automatically changed according to one and a method of operating the system.

또한, 본 발명의 실시예에 의하면, 대형 스크린에서 디스플레이된 이미지를 구경한 사용자가 인지하지 못하도록 반사 유리 뒤에서 사용자의 얼굴을 인식하고, 그 사용자의 사용자 맞춤형 아바타를 생성할 수 있는 대형 스크린 디스플레이 시스템 및 그 시스템의 동작 방법을 제공한다.In addition, according to an embodiment of the present invention, a large screen display system that can recognize the user's face behind the reflection glass so that the user who visits the image displayed on the large screen is not recognized, and can create a user-customized avatar of the user; It provides a method of operation of the system.

본 발명의 일 실시예에 따른 디스플레이 시스템은 사용자를 촬영하는 카메라와, 상기 촬영된 사용자의 영상 정보를 디스플레이하고, 상기 사용자로부터의 인터렉션에 응답하는 터치 스크린과, 상기 터치 스크린과 연동하는 대형 스크린과, 복수의 이미지들이 저장된 데이터베이스와, 상기 카메라의 촬영 동작에 응답하거나 또는 상기 카메라에 의해 촬영된 영상 정보를 획득함에 응답하여, 상기 저장된 복수의 이미지들 중 어느 하나를 선택하고, 상기 선택된 이미지를 상기 대형 스크린으로 전송하는 프로세서를 포함한다.According to an embodiment of the present invention, a display system includes a camera photographing a user, a touch screen displaying image information of the photographed user, and responding to an interaction from the user, and a large screen interlocked with the touch screen. A database in which a plurality of images are stored, and in response to a photographing operation of the camera or acquiring image information photographed by the camera, selects one of the stored plurality of images, and selects the selected image. It includes a processor that transmits to a large screen.

이때, 상기 카메라에서 다른 사용자가 더 촬영된 경우, 상기 프로세서는 상기 다른 사용자를 촬영함에 응답하여 또는 상기 촬영된 다른 사용자의 영상 정보를 획득함에 응답하여, 상기 저장된 복수의 이미지들 중 어느 하나의 이미지를 추가로 선택하고, 상기 추가로 선택된 이미지를 상기 대형 스크린으로 전송하고, 상기 대형 스크린은 기존의 디스플레이를 유지하면서, 상기 추가로 선택된 이미지를 더 디스플레이할 수 있다.In this case, when another user is further photographed by the camera, the processor responds to photographing the other user or in response to acquiring image information of the photographed other user, the image of any one of the stored plurality of images. May further select, send the further selected image to the large screen, and the large screen may further display the further selected image while maintaining the existing display.

또한, 상기 데이터베이스는 상기 복수의 이미지들을 유형별로 그룹핑하여 저장하고, 상기 프로세서는 상기 촬영된 영상 정보가 속하는 유형의 그룹에 대응하는 이미지들 중 어느 하나를 선택할 수 있다.The database may store the plurality of images grouped by type, and the processor may select any one of images corresponding to a group of a type to which the photographed image information belongs.

또한, 상기 유형은 사람의 감정, 표정, 나이, 성별, 움직임 및 의복정보 중 적어도 하나에 관련될 수 있다.In addition, the type may be related to at least one of a person's emotion, facial expression, age, gender, movement, and clothing information.

또한, 상기 프로세서는 상기 영상 정보로부터 상기 사용자의 얼굴을 인식하고, 상기 인식 결과를 기초로 상기 영상 정보가 속하는 유형을 결정할 수 있다.The processor may recognize the face of the user from the image information and determine a type to which the image information belongs based on the recognition result.

또한, 상기 프로세서는 상기 결정된 유형을 기초로, 상기 대형 스크린의 디스플레이 정보를 변경하거나, 또는 상기 대형 스크린에 전송되는 이미지들의 각각 또는 전체의 디스플레이 정보를 변경할 수 있다.In addition, the processor may change display information of the large screen or change display information of each or all of the images transmitted to the large screen based on the determined type.

또한, 상기 디스플레이 시스템은 상기 사용자가 뒷면의 상황을 보지 못하게 하는 반사 유리와, 상기 반사 유리 뒤에서 상기 사용자에 대응하는 아바타를 생성하기 위하여 상기 사용자의 얼굴을 인식하는 아바타 생성 카메라와, 미리 저장된 아바타들의 후보들과 상기 인식된 사용자의 얼굴에 기초하여 사용자 맞춤형 아바타를 생성하는 아바타 생성 장치를 더 포함할 수 있다.The display system may further include a reflection glass that prevents the user from seeing a situation on the back side, an avatar generation camera that recognizes the user's face to generate an avatar corresponding to the user behind the reflection glass, and a pre-stored avatar. The apparatus may further include an avatar generating device that generates a user-customized avatar based on the candidates and the recognized user's face.

또한, 상기 아바타 생성 카메라는 상기 반사 유리 뒤에서 상기 반사 유리 앞측을 연속적으로 촬영하고, 상기 연속적으로 촬영되는 영상으로부터 사람의 얼굴을 인식하고, 상기 인식이 성공함에 응답하여 상기 인식된 얼굴의 영상 정보를 상기 아바타 생성 장치로 제공하고, 상기 아바타 생성 장치는 상기 사용자의 의도와 무관하게 상기 사용자 맞춤형 아바타를 생성할 수 있다.The avatar generating camera continuously photographs the front side of the reflective glass behind the reflective glass, recognizes a face of a person from the continuously captured image, and receives image information of the recognized face in response to the recognition success. The avatar generating device may generate the user-customized avatar regardless of the user's intention.

본 발명의 다른 실시예에 따른 디스플레이 시스템의 동작 방법은 사용자를 촬영하는 카메라와 연동하는 터치 스크린 및 상기 터치 스크린과 연동하는 대형 스크린을 포함하는 디스플레이 시스템의 동작 방법에 있어서, 상기 대형 스크린에 디스플레이할 대상의 복수의 이미지들을 저장하는 단계와, 상기 카메라의 촬영 동작에 응답하거나 또는 상기 카메라에 의해 촬영된 영상 정보를 획득함에 응답하여, 상기 저장된 복수의 이미지들 중 어느 하나를 선택하는 단계와, 상기 선택된 이미지를 상기 대형 스크린으로 전송 단계를 포함한다.According to another aspect of the present invention, there is provided a method of operating a display system including a touch screen interworking with a camera photographing a user and a large screen interlocking with the touch screen. Storing a plurality of images of an object, selecting one of the plurality of stored images in response to a photographing operation of the camera or obtaining image information photographed by the camera; Transferring the selected image to the large screen.

이때, 상기 카메라에서 다른 사용자가 더 촬영된 경우, 상기 저장된 복수의 이미지들 중 하나를 선택하는 단계는 상기 다른 사용자를 촬영함에 응답하여 또는 상기 촬영된 다른 사용자의 영상 정보를 획득함에 응답하여, 상기 저장된 복수의 이미지들 중 이전에 선택된 이미지와는 다른 이미지를 선택하고, 상기 대형 스크린은 기존의 디스플레이를 유지하면서, 상기 선택된 다른 이미지를 추가로 디스플레이할 수 있다.In this case, when another user is photographed by the camera, selecting one of the stored plurality of images may be performed in response to photographing the other user or in response to obtaining image information of the photographed other user. An image different from the previously selected image is selected from among the plurality of stored images, and the large screen may further display the selected other image while maintaining the existing display.

상기 프로세서는 이동 단말 또는 네트워크와 연결된 컴퓨팅 단말로부터 전송된 상기 사용자의 영상 정보를 획득하고, 상기 이동 단말 또는 네트워크와 연결된 컴퓨팅 단말로부터 획득된 영상 정보에 따라 상기 저장된 복수의 이미지들 중 어느 하나를 선택하고, 상기 선택된 이미지를 상기 대형 스크린으로 전송할 수 있다.The processor acquires image information of the user transmitted from a mobile terminal or a computing terminal connected to a network, and selects any one of the stored images according to the image information obtained from the mobile terminal or a computing terminal connected to a network. And transmit the selected image to the large screen.

또한, 상기 복수의 이미지들을 저장하는 단계는 상기 복수의 이미지들을 유형별로 그룹핑하여 저장하고, 상기 저장된 복수의 이미지들 중 하나를 선택하는 단계는 상기 촬영된 영상 정보가 속하는 유형의 그룹에 대응하는 이미지들 중 어느 하나를 선택할 수 있다.The storing of the plurality of images may be performed by grouping and storing the plurality of images by type, and selecting one of the stored plurality of images may include an image corresponding to a group of a type to which the photographed image information belongs. You can choose any of these.

또한, 상기 유형은 사람의 감정, 표정, 나이, 성별, 움직임 및 의복정보 중 적어도 하나에 관련될 수 있다.In addition, the type may be related to at least one of a person's emotion, facial expression, age, gender, movement, and clothing information.

또한, 상기 저장된 복수의 이미지들 중 하나를 선택하는 단계는 상기 영상 정보로부터 상기 사용자의 얼굴을 인식하는 단계와, 상기 인식 결과를 기초로 상기 영상 정보가 속하는 유형을 결정하는 단계와, 상기 복수의 이미지들 중에서 상기 결정된 유형에 대응하는 그룹의 이미지들의 어느 하나를 선택할 수 있다.The selecting of the plurality of stored images may include recognizing a face of the user from the image information, determining a type to which the image information belongs based on a result of the recognition, One of the images of the group corresponding to the determined type may be selected among the images.

또한, 상기 디스플레이 시스템의 동작 방법은 상기 결정된 유형을 기초로, 상기 대형 스크린의 디스플레이 정보를 변경하거나, 또는 상기 대형 스크린에 전송되는 이미지들의 각각 또는 전체의 디스플레이 정보를 변경하는 단계를 더 포함할 수 있다.In addition, the operating method of the display system may further include changing display information of the large screen or changing display information of each or all of the images transmitted to the large screen based on the determined type. have.

또한, 상기 디스플레이 시스템의 동작 방법은 상기 사용자가 뒷면의 상황을 보지 못하게 하는 반사 유리 뒤에서, 상기 사용자의 얼굴을 인식하는 단계와, 상기 인식된 사용자의 얼굴과, 미리 저장된 아바타들의 후보들에 기초하여, 사용자 맞춤형 아바타를 생성하는 단계를 더 포함할 수 있다.In addition, the operating method of the display system is based on the step of recognizing the face of the user behind the reflection glass that prevents the user from seeing the situation on the back, based on the recognized user's face and candidates of the pre-stored avatars, The method may further include generating a user-customized avatar.

또한, 상기 사용자의 얼굴을 인식하는 단계는 상기 반사 유리 뒤에서 상기 반사 유리 앞측을 연속적으로 촬영하는 단계와, 상기 연속적으로 촬영되는 영상으로부터 사람의 얼굴을 인식하는 단계와, 상기 인식이 성공함에 응답하여 상기 인식된 얼굴의 영상 정보를 상기 아바타 생성 장치로 제공하는 단계를 포함하고, 상기 사용자 맞춤형 아바타를 생성하는 단계는 상기 사용자의 의도와는 무관하게 상기 사용자 맞춤형 아바타를 생성할 수 있다.The recognizing of the face of the user may include continuously photographing the front side of the reflective glass behind the reflective glass, recognizing a face of the person from the continuously captured image, and responding to the successful recognition. The method may include providing image information of the recognized face to the avatar generating device, and generating the user-customized avatar may generate the user-customized avatar regardless of the user's intention.

본 발명에 의하면, 사용자들이 터치 스크린을 통해 자신들을 촬영하면, 자신과 대응하는 이미지가 대형 스크린을 통해 자동으로 디스플레이될 수 있으며, 특히, 그 대형 스크린에는 자신과 대응하는 이미지와 다른 사람과 대응하는 이미지가 조합되어 보여질 수 있다.According to the present invention, when users photograph themselves through a touch screen, an image corresponding to themselves can be displayed automatically on a large screen, and in particular, the large screen corresponds to an image corresponding to himself and another person. Images can be shown in combination.

특히, 본 발명의 실시예에 의하면, 대형 스크린은 사용자들의 감정, 표현, 나이, 성별, 움직임 및 의복에 따라 모양, 크기, 조명 및 분위기 등이 다르게 변화된 화면을 보여줄 수 있다.In particular, according to an exemplary embodiment of the present invention, the large screen may show a screen in which the shape, size, lighting, and mood are changed according to the emotion, expression, age, gender, movement, and clothing of the user.

또한, 본 발명의 실시에에 의하면, 사용자는 디스플레이 시스템에 설치된 반사 유리에 서 있으면, 자신의 아바타가 생성되고 있음을 인지하지 못한 상태에서 자신을 위한 사용자 맞춤형 아바타를 갑자기 볼 수 있는 재미가 있다.In addition, according to the embodiment of the present invention, when the user stands on the reflective glass installed in the display system, the user may have fun to suddenly see a user-customized avatar for himself in a state where his avatar is not recognized.

도 1은 본 발명의 일 실시예에 따른 디스플레이 시스템의 구성을 설명하기 위한 도면.
도 2는 도 1에 도시된 터치 스크린과 대형 스크린이 설치되는 일례를 보여주는 도면.
도 3 및 4는 도 1에 도시된 디스플레이 시스템을 사용자가 조작하는 예를 보여주는 도면.
도 5 내지 도 7은 도 1에 도시된 디스플레이 시스템이 대형 스크린에 사용자에 대응하는 이미지를 디스플레이하는 과정의 일례를 설명하기 위한 도면.
도 8은 본 발명의 다른 실시예에 따른 디스플레이 시스템의 구성을 보여주는 도면.
도 9는 도 8에 도시된 제2 파트의 외관의 일례를 보여주는 도면.
도 10 내지 12는 본 발명의 또 다른 실시예에 따른 디스플레이 시스템의 동작을 보여주는 도면.
1 is a view for explaining the configuration of a display system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example in which the touch screen and the large screen illustrated in FIG. 1 are installed.
3 and 4 show an example of a user operating the display system shown in FIG.
5 to 7 are diagrams for explaining an example of a process in which the display system shown in FIG. 1 displays an image corresponding to a user on a large screen.
8 is a view showing the configuration of a display system according to another embodiment of the present invention.
FIG. 9 is a view showing an example of appearance of a second part shown in FIG. 8; FIG.
10 to 12 show the operation of the display system according to another embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 디스플레이 시스템의 구성을 설명하기 위한 도면이다.1 is a view for explaining the configuration of a display system according to an embodiment of the present invention.

도 1을 참조하면, 디스플레이 시스템(100)은 카메라(110), 터치 스크린(120), 대형 스크린(130), 프로세서(140) 및 데이터베이스(150)를 포함한다.Referring to FIG. 1, the display system 100 includes a camera 110, a touch screen 120, a large screen 130, a processor 140, and a database 150.

여기서, 카메라(110)와 터치 스크린(120)은 상호 연동하여, 사용자를 촬영하고 그 촬영된 영상을 디스플레이한다.Here, the camera 110 and the touch screen 120 interoperate with each other to photograph the user and display the captured image.

특히, 터치 스크린(120)은 사용자의 터치 입력에 따라, 상기 촬영의 동작들을 수행하며, 저항막, 광학, 정전용량, 초음파 및 압력 등과 같은 방식으로 구현될 수 있다. 또한, 터치 스크린(120)은 사용자의 동시 입력 및 여러 사용자의 입력에 모두 반응할 수 있도록 멀티 터치 입력 방식을 채용할 수 있다.In particular, the touch screen 120 performs the operations of the photographing according to a user's touch input, and may be implemented in a manner such as a resistive film, optical, capacitive, ultrasonic and pressure. In addition, the touch screen 120 may adopt a multi-touch input method to respond to both simultaneous user input and multiple user inputs.

대형 스크린(130)은 터치 스크린(120)의 일측이나, 또는 주변에 설치된다. 예컨대, 대형 스크린(130)은 건물의 외벽이나 내벽 등에 큰 사이즈로 설치되어, 사용자들이 큰 사이즈의 그림이나 영상을 감상할 수 있도록 할 수 있다.The large screen 130 is installed at one side of or around the touch screen 120. For example, the large screen 130 may be installed in a large size on an outer wall or an inner wall of a building, so that users can view a large sized picture or video.

도 2는 터치 스크린(120)과 대형 스크린(130)이 설치되는 일례를 보여준다.2 shows an example in which the touch screen 120 and the large screen 130 are installed.

도 2를 참조하면, 터치 스크린(210)과 대형 스크린(200)은 본 발명의 일 실시예로서, 건물의 내벽 또는 외벽에 설치될 수 있다. 특히, 터치 스크린(210)은 사용자들이 편리하게 사용할 수 있도록 특정 높이에 설치되고, 대형 스크린(200)은 터치 스크린(210)의 주변 공간에 터치 스크린(210)보다 큰 사이즈로 설치될 수 있다.Referring to FIG. 2, the touch screen 210 and the large screen 200 may be installed on an inner wall or an outer wall of a building as an embodiment of the present invention. In particular, the touch screen 210 may be installed at a specific height so as to be conveniently used by users, and the large screen 200 may be installed in a space larger than the touch screen 210 in the space around the touch screen 210.

사용자들은 터치 스크린(210)을 터치하여 그 터치 스크린(120)과 연동하는 카메라를 조작함으로써, 상기 카메라가 자신들을 촬영하도록 할 수 있다. 즉, 터치 스크린(210)은 사용자 a의 터치에 따라 화면 A를 통해 사진 촬영을 수행하고, 사용자 b의 터치에 따라 화면 B를 통해 사진 촬영을 수행하고, 사용자 c의 터치에 따라 화면 C를 통해 사진 촬영을 수행하는 것을 볼 수 있다.Users can operate the camera to interact with the touch screen 120 by touching the touch screen 210, so that the camera can shoot themselves. That is, the touch screen 210 takes a picture through the screen A according to the touch of the user a, takes a picture through the screen B according to the touch of the user b, and through the screen C according to the touch of the user c. You can see the photo taking.

그러면, 상기 디스플레이 시스템은 이러한 터치 스크린(210)의 촬영 동작에 대응하여, 사용자들 각각에 대응하여 디스플레이 대상의 이미지들을 선택하고, 대형 스크린(200)은 그 선택된 이미지들을 터치 스크린(210)의 주변 공간에 디스플레이할 것이다.Then, in response to the photographing operation of the touch screen 210, the display system selects images to be displayed corresponding to each of the users, and the large screen 200 selects the selected images around the touch screen 210. Will display in space.

이를 위하여, 프로세서(140)는 카메라의 촬영 동작에 응답하거나 또는 카메라에 의해 촬영된 영상 정보를 터치 스크린(120)으로부터 획득함에 응답하여, 디스플레이 대상의 이미지들을 선택한다. 또한, 데이터베이스(150)는 상기 디스플레이 대상의 이미지들을 저장한다. 이 때, 이미지들은 영상 정보(사용자의 얼굴, 나이, 성별)에 따라 임의의 이미지 생성 함수를 이용하여 실시간으로 생성되고, 그 이미지들이 데이터베이스(150)에 저장될 수 있다.To this end, the processor 140 selects images to be displayed in response to a photographing operation of the camera or in response to obtaining image information photographed by the camera from the touch screen 120. In addition, the database 150 stores images of the display object. In this case, the images may be generated in real time using an image generation function according to image information (a face, age, and gender of the user), and the images may be stored in the database 150.

여기서, 프로세서(140)는 상기 디스플레이 대상의 이미지들을 선택할 때, 카메라(110)에 의해 하나의 사용자가 촬영되거나 또는 터치 스크린(120)으로부터 하나의 영상 정보가 획득됨에 응답하여, 데이터베이스(150)에 저장된 복수의 이미지들 중 어느 하나를 선택할 수 있다. 여기서, 프로세서(140)는 상기 선택을 위하여, 랜덤하거나 또는 미리 설정된 규칙에 따라 이미지를 선택할 수 있다.Here, when selecting images of the display target, the processor 140 may respond to the database 150 in response to a single user being photographed by the camera 110 or one image information obtained from the touch screen 120. One of a plurality of stored images may be selected. Here, the processor 140 may select an image according to a random or preset rule for the selection.

자세히 말해서, 프로세서(140)는 하나의 사용자(a)가 촬영되면, 사용자(a)에 대응하여 복수의 이미지들 중에서 하나의 이미지를 선택하고, 다른 사용자(b)가 더 촬영되면, 다른 사용자(b)에 대응하여 복수의 이미지들 중에서 다른 하나의 이미지를 선택한다. 여기서, 상기 선택된 다른 하나의 이미지는 랜덤하거나 또는 미리 설정된 규칙에 의해 선택된 것으로, 이전 선택된 이미지와 동일하지 않을 수도 있고, 동일할 수 있을 것이다.In detail, the processor 140 selects one image from among a plurality of images corresponding to the user a when one user a is photographed, and if another user b is photographed, the other user ( In response to b), one of the plurality of images is selected. Here, the other selected image is random or selected by a preset rule, and may not be the same as the previously selected image or may be the same.

이후, 대형 스크린(130)은 프로세서(140)에 의해 선택되는 이미지들을 순차적으로 디스플레이한다. 특히, 대형 스크린(130)은 기존의 디스플레이를 유지하면서, 프로세서(140)에서 추가로 전송된 이미지를 더 디스플레이할 수 있다.Thereafter, the large screen 130 sequentially displays the images selected by the processor 140. In particular, the large screen 130 may further display an image further transmitted from the processor 140 while maintaining the existing display.

나아가, 프로세서(140)는 촬영부(141), 터치 스크린 처리부(142), 대응 이미지 선택부(143) 및 대형 스크린 처리부(144)를 포함할 수 있다.In addition, the processor 140 may include a photographing unit 141, a touch screen processing unit 142, a corresponding image selecting unit 143, and a large screen processing unit 144.

촬영부(141)는 카메라(110)로부터 획득되는 영상 정보를 터치 스크린 처리부(142)로 전달한다. The photographing unit 141 transfers the image information obtained from the camera 110 to the touch screen processing unit 142.

터치 스크린 처리부(142)는 촬영부(141)로부터 전달되는 영상 정보를 터치 스크린(120)에게 전송하고, 터치 스크린(120)은 사용자의 터치 입력에 따라 그 영상 정보를 상기 사용자의 영상 정보로 설정한다. The touch screen processor 142 transmits the image information transmitted from the photographing unit 141 to the touch screen 120, and the touch screen 120 sets the image information as the image information of the user according to a user's touch input. do.

터치 스크린 처리부(142)의 설정에 응답하여, 대응 이미지 선택부(143)는 터치 스크린 처리부(142)로부터 상기 사용자의 영상 정보를 획득할 수 있다.In response to the setting of the touch screen processor 142, the corresponding image selector 143 may obtain image information of the user from the touch screen processor 142.

상기 사용자의 입장에서 자신의 영상이 촬영되고, 그 촬영된 영상 정보가 대응 이미지 선택부(143)로 전달되기까지의 과정은 도 3 및 도 4를 통해 설명될 수 있다. 이러한 도 3 및 도 4에서 보여주는 과정은 본 발명의 일 실시예에 따른 디스플레이 시스템의 일례로서 설명된다.The process of the user's image taken from the user's point of view and the captured image information transmitted to the corresponding image selector 143 may be described with reference to FIGS. 3 and 4. 3 and 4 are described as an example of a display system according to an embodiment of the present invention.

도 3을 참조하면, 상기 사용자는 터치 스크린에 디스플레이된 화면(300)을 통해 자신의 영상이 촬영되고 있음을 확인하고, 상기 화면(300)의 버튼 부분(310)을 터치함으로써, 현재의 영상이 터치 스크린 처리부(142)로부터 대응 이미지 선택부(143)으로 전달되도록 명령할 수 있다.Referring to FIG. 3, the user confirms that his / her image is being captured through the screen 300 displayed on the touch screen, and touches the button portion 310 of the screen 300 to display the current image. The touch screen processor 142 may transmit a command to the corresponding image selector 143.

도 4를 참조하면, 상기 사용자는 터치 스크린에 디스플레이되고 자신을 촬영하고 있음을 보여주는 화면(400)을 터치하고 대형 스크린쪽으로 드래그함으로써, 현재의 영상이 터치 스크린 처리부(142)로부터 대응 이미지 선택부(143)으로 전달되도록 명령할 수 있다.Referring to FIG. 4, the user touches the screen 400 displayed on the touch screen and shows that the user is photographing himself and drags the screen 400 to the large screen, whereby the current image is selected from the touch screen processor 142. 143).

나아가, 대응 이미지 선택부(143)는 터치 스크린 처리부(142)로부터 상기 사용자의 영상 정보를 획득함에 응답하여, 데이터베이스(150)에 미리 저장된 복수의 이미지들 중에서 어느 하나를 선택할 수 있다. 여기서, 영상 정보(사용자의 얼굴, 나이, 성별)에 따라 임의의 이미지 생성 함수를 이용하여 실시간으로 생성되고, 그 이미지들이 저장된 데이터베이스(150)로부터 선택될 수 있다.
In addition, the corresponding image selector 143 may select any one of a plurality of images previously stored in the database 150 in response to obtaining image information of the user from the touch screen processor 142. Here, the image may be generated in real time using an arbitrary image generation function according to the image information (face, age, gender) of the user, and the images may be selected from the stored database 150.

도 5를 참조하면, 터치 스크린 처리부(142)는 상기 사용자를 위해 촬영되는 영상을 화면(500)을 통해 디스플레이하고 있다가, 화면(510)과 같이 상기 사용자의 특정 터치 동작(예컨대, 버튼 터치, 터치 앤 드래그 등)이 발생하였는 지를 감지한다. 상기 감지 결과, 터치 스크린 처리부(142)는 상기 특정 터치 동작이 발생한 경우, 복수의 이미지들 중에서 상기 사용자에 대응하는 하나의 이미지를 선택하고, 그 선택된 이미지를 대형 스크린 처리부(144)로 전달할 수 있다.Referring to FIG. 5, the touch screen processing unit 142 displays an image captured for the user through the screen 500, and then touches a specific touch of the user (eg, a button touch, like the screen 510). Touch and drag, etc.) are detected. As a result of the sensing, when the specific touch operation occurs, the touch screen processing unit 142 may select one image corresponding to the user from a plurality of images and transfer the selected image to the large screen processing unit 144. .

대형 스크린 처리부(144)는 대형 스크린(130)의 디스플레이 동작을 컨트롤하는 모듈로서, 대응 이미지 선택부(143)에 의해 선택된 이미지(520)를 대형 스크린(130)으로 전송하여 디스플레이를 요청한다. 이때, 대형 스크린 처리부(144)는 본 발명의 일 실시 예에 따라, 과거에 다른 사용자들에 대응하여 선택된 이미지들(530, 540)을 디스플레이하고 있던 것을 그대로 유지하고, 이미지(520)를 추가로 디스플레이시하는 것으로 구현될 수 있다.The large screen processor 144 is a module for controlling the display operation of the large screen 130. The large screen processor 144 transmits the image 520 selected by the corresponding image selector 143 to the large screen 130 to request display. In this case, the large screen processing unit 144 maintains the display of the images 530 and 540 selected in response to other users in the past, and further maintains the image 520 according to an embodiment of the present invention. It can be implemented by displaying.

나아가, 대응 이미지 선택부(143)는 상기 사용자의 영상 정보를 분석하여, 그 분석 결과에 따라, 대형 스크린에 디스플레이할 대상의 이미지를 선택할 수도 있다. 이 경우, 데이터베이스(150)는 복수의 이미지들을 유형별로 그룹핑하여 미리 저장할 수 있다.In addition, the corresponding image selecting unit 143 may analyze the image information of the user and select an image of a target to be displayed on a large screen according to the analysis result. In this case, the database 150 may store a plurality of images by grouping them in advance.

대응 이미지 선택부(143)는 터치 스크린 처리부(142)로부터 획득된 영상 정보를 분석하여, 상기 사용자의 유형을 결정하고, 그 결정된 유형에 대응하는 그룹의 이미지들 중에서 하나의 이미지를 선택할 수 있다.The corresponding image selecting unit 143 may analyze the image information acquired from the touch screen processing unit 142 to determine the type of the user, and select one image from among images of the group corresponding to the determined type.

여기서, 상기 대응 이미지 선택부(143)는 상기 분석시, 도 5에 도시된 511과 같이, 상기 사용자의 얼굴을 인식하고, 상기 인식된 얼굴의 특징점을 추출함으로써, 그 추출된 특징점을 기초로 상기 사용자의 유형을 결정할 수 있다. 상기 유형은 사람의 감정, 표정, 나이, 성별, 움직임 중 적어도 하나에 관련된 것이 될 수 있다.In this case, the corresponding image selecting unit 143 recognizes the user's face and extracts the feature points of the recognized face, as shown in 511 of FIG. 5, based on the extracted feature points. You can determine the type of user. The type may be related to at least one of a person's emotion, facial expression, age, gender, and movement.

예를 들어서, 데이터베이스(150)는 사람의 감정(예컨대, 기쁨, 무표정, 침울 등)별로 그룹핑된 이미지들을 저장하고 있고, 대응 이미지 선택부(143)는 상기 사용자의 영상 정보를 기초로 상기 사용자의 감정을 분석할 수 있다. 대응 이미지 선택부(143)는 상기 분석 결과를 기초로, 상기 사용자의 현재 감정(예컨대, 기쁨)에 대응하는 이미지들 중 하나를 선택할 수 있고, 이에 따라 대형 스크린(130)에는 기쁨에 대응하는 이미지가 디스플레이됨으로써, 대형 스크린(130)에 디스플레이된 이미지들의 분위기가 상기 사용자의 감정에 따라 변화될 수 있을 것이다.For example, the database 150 stores images grouped by a person's emotion (eg, joy, expressionless, down, etc.), and the corresponding image selecting unit 143 stores the image based on the user's image information. Analyze emotions. The corresponding image selector 143 may select one of the images corresponding to the current emotion (eg, joy) of the user based on the analysis result, and thus the image corresponding to the joy on the large screen 130 may be selected. By displaying, the atmosphere of the images displayed on the large screen 130 may be changed according to the emotion of the user.

또한, 대형 스크린 처리부(144)는 상기 사용자의 유형을 기초로, 대형 스크린(130)의 디스플레이 정보를 변경하거나 또는 상기 대형 스크린에 전송되는 이미지들의 각각 또는 전체의 디스플레이 정보를 변경할 수 있다.In addition, the large screen processing unit 144 may change display information of the large screen 130 or display information of each or all of the images transmitted to the large screen based on the type of the user.

여기서, 대형 스크린(130)의 디스플레이 정보는 색상 정보 및 보조조명 온오프 중 적어도 하나가 될 수 있고, 상기 전송되는 이미지들 각각 또는 전체의 디스플레이 정보는 색상 정보 및 액션 스크립트 함수 중 적어도 하나가 될 수 있다.The display information of the large screen 130 may be at least one of color information and auxiliary lighting on / off, and display information of each or all of the transmitted images may be at least one of color information and an action script function. have.

예를 들어, 대형 스크린 처리부(144)는 상기 사용자의 유형에 따라 대형 스크린의 디스플레이 색상 정보를 조정(예컨대, 검은 옷을 입은 사용자의 경우 대형 스크린의 디스플레이 색상을 어둡게 하는 등)하거나 보조조명을 온 또는 오프할 수 있고, 상기 사용자의 유형에 따라 이미지의 색상 정보를 조정하거나 또는 상기 유형에 따른 액션 스크립트 함수(예컨대, 튀어나오기, 부스러지기 등)을 설정할 수 있다.For example, the large screen processing unit 144 adjusts the display color information of the large screen according to the type of the user (for example, darkening the display color of the large screen for a user dressed in black) or turns on the auxiliary lighting. Alternatively, it may be turned off, and the color information of the image may be adjusted according to the type of the user, or an action script function (eg, popping up, shattering, etc.) according to the type may be set.

한편, 상기 사용자는 터치 스크린(120)을 통해서 자신을 촬영하지 않고, 자신의 이동 단말이나 컴퓨팅 장치를 통해 자신을 촬영할 수도 있다. 즉, 본 발명의 디스플레이 시스템은 실시 예로서, 이동 단말 또는 네트워크와 연결된 컴퓨팅 단말로부터 전송된 상기 사용자의 영상 정보를 획득하고, 상기 이동 단말 또는 네트워크와 연결된 컴퓨팅 단말로부터 획득된 영상 정보에 따라 상기 저장된 복수의 이미지들 중 어느 하나를 선택하고, 상기 선택된 이미지를 상기 대형 스크린으로 전송할 수 있다. 이러한 실시예는 도 6 및 도 7을 통해 예시적으로 설명될 수 있다.On the other hand, the user may not photograph themselves through the touch screen 120, but may photograph themselves through their mobile terminal or computing device. That is, the display system of the present invention, as an embodiment, obtains the image information of the user transmitted from a mobile terminal or a computing terminal connected to a network, and stores the stored information according to the image information obtained from the mobile terminal or a computing terminal connected to a network. One of a plurality of images may be selected and the selected image may be transmitted to the large screen. This embodiment can be exemplarily described through FIGS. 6 and 7.

도 6을 참조하면, 상기 사용자의 이동 단말(600)은 상기 사용자의 입력 신호에 따라, 본 발명의 디스플레이 시스템과 연동하는 어플리케이션을 실행하고, 상기 사용자의 추가 입력 신호에 따라 상기 사용자를 촬영할 수 있다. 그리고, 이동 단말(600)은 상기 사용자가 터치 앤 드래그함에 응답하여, 상기 촬영된 영상 정보를 디스플레이 시스템으로 전송할 수 있다. 이때, 상기 전송된 영상 정보는 대응 이미지 선택부(143)로 전달될 것이다.Referring to FIG. 6, the mobile terminal 600 of the user may execute an application interworking with the display system of the present invention according to the input signal of the user, and photograph the user according to the additional input signal of the user. . The mobile terminal 600 may transmit the captured image information to a display system in response to the user's touch and drag. In this case, the transmitted image information will be delivered to the corresponding image selector 143.

도 7을 참조하면, 이동 단말(600)은 상기 사용자가 상기 어플리케이션에서 제공하는 버튼('사진 보내기')을 조작함에 응답하여, 상기 촬영된 영상 정보를 디스플레이 시스템으로 전송한다. 이 경우, 상기 사용자는 디스플레이 시스템과 가까이 있지 않더라도, 버튼 조작을 통해 자신의 영상 정보를 전송할 수 있다. Referring to FIG. 7, the mobile terminal 600 transmits the photographed image information to the display system in response to the user operating a button ('send photo') provided by the application. In this case, even if the user is not near the display system, the user may transmit his or her image information through button manipulation.

또한, 컴퓨팅 장치(미도시됨)는 앞서 설명된 이동 단말들과 마찬가지로, 디스플레이 시스템과 연동하는 어플리케이션을 탑재하고, 사용자의 조작에 따라 상기 사용자의 영상 정보를 상기 디스플레이 시스템으로 전송할 수 있다. 이 경우, 상기 사용자는 자신의 데스크톱을 조작함으로써, 원격지에 위치한 디스플레이 시스템의 대형 스크린에 자신에 대응하는 이미지가 디스플레이되도록 할 수 있다. 이러한 역할의 사용자는 실시예로서, 상기 디스플레이 시스템의 관리자 또는 특정 권한을 가진 사용자가 해당될 수 있다.
In addition, similar to the mobile terminals described above, a computing device (not shown) may be equipped with an application interworking with a display system and transmit image information of the user to the display system according to a user's manipulation. In this case, the user may manipulate his desktop so that an image corresponding to the user is displayed on a large screen of a display system located at a remote location. A user in this role may be an example of an administrator of the display system or a user having a specific authority.

도 8은 본 발명의 다른 실시예에 따른 디스플레이 시스템의 구성을 보여주는 도면이다.8 is a diagram illustrating a configuration of a display system according to another embodiment of the present invention.

도 8을 참조하면, 상기 디스플레이 시스템은 앞서 설명된 바와 같이, 사용자를 촬영하고, 그 촬영된 사용자에 대응하여 이미지를 선택하고, 선택된 이미지를 대형 스크린에 디스플레이한다. 나아가, 상기 디스플레이 시스템은 반사 유리의 뒤에서 상기 사용자를 촬영하고, 상기 사용자를 위한 맞춤형 아바타(이하, '사용자 맞춤형 아바타'라 칭함)을 생성할 수 있다.Referring to FIG. 8, as described above, the display system photographs a user, selects an image corresponding to the photographed user, and displays the selected image on a large screen. In addition, the display system may photograph the user behind the reflective glass and generate a custom avatar (hereinafter, referred to as a “user-customized avatar”) for the user.

이를 위하여, 상기 디스플레이 시스템의 구성들은 대형 스크린에 이미지를 디스플레이하는 제1 파트(820) 및 아바타를 생성하는 제2 파트(830)로 구분될 수 있다. 즉, 제1 파트(820)는 프로세서(821), 대형 스크린(822), 카메라(823) 및 터치 스크린(824)를 포함하고, 이러한 구성들은 도 1에서 설명된 디스플레이 시스템에 포함된 구성들(110 내지 150)과 동일할 수 있다. 또한, 제2 파트(830)는 아바타 생성 카메라(831), 아바타 생성 장치(832) 및 반사 유리(833)를 포함할 수 있다.To this end, the configurations of the display system may be divided into a first part 820 for displaying an image on a large screen and a second part 830 for generating an avatar. That is, the first part 820 includes a processor 821, a large screen 822, a camera 823, and a touch screen 824, which are components included in the display system described in FIG. 1 ( 110 to 150). In addition, the second part 830 may include an avatar generating camera 831, an avatar generating device 832, and a reflective glass 833.

이러한 제1 파트(820)와 제2 파트(830)는 사용자들의 이동 경로 상에 차례로 설치될 수 있다. 이에 따라, 사용자들은 제1 파트(820)에 의해 대형 스크린(822)에 디스플레이되는 이미지들을 감상한 후에 제2 파트(830)의 동작 영역으로 이동할 것이다.The first part 820 and the second part 830 may be sequentially installed on a moving path of users. Accordingly, the users will move to the operating area of the second part 830 after viewing the images displayed on the large screen 822 by the first part 820.

제2 파트(830)의 반사 유리(833)는 사용자들이 뒷면의 상황을 보지 못하도록, 사용자들이 보는 방향에서는 반투명하고, 반대의 방향에서는 투명한 재질로 구현될 수 있다. 아바타 생성 카메라(831)는 반사 유리(833)의 뒤에 설치되어 상기 사용자를 촬영할 수 있다.The reflective glass 833 of the second part 830 may be made of a material that is translucent in a direction viewed by the user and transparent in the opposite direction so that the user does not see the situation of the back side. The avatar generation camera 831 may be installed behind the reflective glass 833 to photograph the user.

아바타 생성 카메라(831)는 반사 유리(833) 뒤에서, 상기 사용자를 실시간으로 촬영하면서 얼굴을 인식한다.The avatar generation camera 831 recognizes a face while photographing the user in real time behind the reflective glass 833.

아바타 생성 장치(832)는 데이터베이스(810)에 미리 저장된 아바타들의 후보들과, 아바타 생성 카메라(831)에 의해 인식된 얼굴에 기초하여 사용자 맞춤형 아바타를 생성한다. 즉, 데이터베이스(810)는 아바타들의 후보들과 각 후보들의 특성 정보를 미리 저장하여 두고, 아바타 생성 장치(832)는 아바타 생성 카메라(831)에 의해 인식된 얼굴의 특성 정보에 해당하는 후보들을 이용하여 상기 사용자 맞춤형 아바타로 생성할 수 있다. 이외에도, 사용자 맞춤형 아바타의 생성 과정은 다양한 아바타 생성 방식이 이용될 수 있다.The avatar generating device 832 generates a user-customized avatar based on candidates of avatars previously stored in the database 810 and a face recognized by the avatar generating camera 831. That is, the database 810 stores the candidates of the avatars and the characteristic information of each candidate in advance, and the avatar generating device 832 uses the candidates corresponding to the characteristic information of the face recognized by the avatar generating camera 831. It may be generated as the user-customized avatar. In addition, various avatar generation methods may be used in the process of generating a user-customized avatar.

도 9는 제2 파트(830)가 구현할 수 있는 외관의 일례를 보여주고, 그 외관을 통해 사용자에게 사용자 맞춤형 아바타를 보여주는 과정을 설명한다.9 illustrates an example of an appearance that may be implemented by the second part 830, and illustrates a process of showing a user-customized avatar through the appearance.

도 9를 참조하면, 사용자가 반사 유리(910) 앞으로 이동하는 경우, 반사 유리(910) 뒤에 설치되어 있는 아바타 생성 카메라(920)는 상기 사용자를 촬영하고, 상기 사용자의 얼굴을 인식한다. 그 인식 결과는 아바타 생성 장치로 전달되고, 상기 아바타 생성 장치는 상기 사용자의 얼굴을 기초로 한 사용자 맞춤형 아바타를 생성한다. 또한, 상기 아바타 생성 장치는 930과 같이 상기 생성된 사용자 맞춤형 아바타를 홀로그램으로 출력할 수 있다.Referring to FIG. 9, when the user moves in front of the reflective glass 910, the avatar generating camera 920 installed behind the reflective glass 910 captures the user and recognizes the user's face. The recognition result is transmitted to the avatar generating device, and the avatar generating device generates a user-customized avatar based on the face of the user. In addition, the avatar generating apparatus may output the generated user-customized avatar as a hologram as shown in 930.

즉, 아바타 생성 카메라(920)는 반사 유리(910) 뒤에 설치되어서, 앞측을 연속적으로 촬영하고, 상기 연속적으로 촬영되는 영상으로부터 사람의 얼굴을 인식한다. 그리고, 아바타 생성 카메라(920)는 상기 인식이 성공함에 응답하여 상기 인식된 얼굴의 영상 정보를 상기 아바타 생성 장치로 제공할 수 있다. 또한, 상기 아바타 생성 장치는 아바타 생성 카메라(920)에서 제공하는 영상 정보에 대응하여, 상기 사용자 맞춤형 아바타를 자동으로 생성함으로써, 상기 사용자 맞춤형 아바타는 상기 사용자의 의도와 무관하게 생성될 수 있다.That is, the avatar generating camera 920 is installed behind the reflective glass 910 to continuously photograph the front side and recognize the face of the person from the continuously photographed images. The avatar generating camera 920 may provide image information of the recognized face to the avatar generating device in response to the successful recognition. In addition, the avatar generating apparatus automatically generates the user-customized avatar in response to the image information provided by the avatar generating camera 920, so that the user-customized avatar may be generated regardless of the user's intention.

상기 사용자 입장에서는, 반사 유리(910) 뒤에서 자신을 촬영하는 것을 인지하지 못하고 있다가, 상기 아바타 생성 장치에 의해 자동으로 생성된 자신의 사용자 맞춤형 아바타를 볼 수 있게 된다.
From the user's point of view, he or she is not aware of photographing himself or herself behind the reflective glass 910, and can see his / her customized avatar automatically generated by the avatar generating device.

도 10은 본 발명의 또 다른 실시예에 따른 디스플레이 시스템의 동작을 설명하기 위한 도면이다. 10 is a view for explaining the operation of the display system according to another embodiment of the present invention.

도 10을 참조하면, 상기 디스플레이 시스템은 1000 단계에서, 대형 스크린에 디스플레이할 대상의 복수의 이미지들을 데이터베이스에 미리 저장한다. 상기 저장된 이미지들은 상기 대형 스크린에서 사용자들 각각에 대응하여 표시될 이미지들이고, 실시예에 따라 패턴문양, 아이콘 및 캐릭터 등이 될 수 있다.Referring to FIG. 10, in operation 1000, the display system previously stores a plurality of images of an object to be displayed on a large screen in a database. The stored images are images to be displayed corresponding to each of the users on the large screen, and may be pattern patterns, icons, and characters according to embodiments.

상기 디스플레이 시스템은 상호 연동하는 카메라 및 터치 스크린을 구비하고, 상기 터치 스크린의 주변에 위치한 대형 스크린을 구비한다.The display system includes a camera and a touch screen that interoperate with each other, and has a large screen positioned around the touch screen.

몇몇의 사용자들은 상기 터치 스크린을 터치하여, 상기 카메라가 자신을 촬영하도록 상기 카메라와 상기 터치 스크린을 조작할 수 있다.Some users may touch the touch screen to manipulate the camera and the touch screen so that the camera photographs itself.

상기 디스플레이 시스템은 1010 단계에서, 상기 카메라에서 사용자를 촬영하였는 지를 판단할 수 있고, 1020 단계에서, 상기 터치 스크린을 통해 상기 사용자의 영상 정보가 획득되었는 지를 판단할 수 있다.In operation 1010, the display system may determine whether the user photographed the user. In operation 1020, the display system may determine whether image information of the user is acquired through the touch screen.

상기 1010 단계에서 상기 카메라의 촬영이 수행된 것으로 판단되거나 또는 상기 1020 단계에서 상기 사용자의 영상 정보가 획득된 것으로 판단되면, 상기 디스플레이 시스템은 1030 단계에서, 상기 촬영된 사용자에 응답하여, 상기 데이터베이스에 미리 저장된 복수의 이미지들 중 어느 하나를 선택한다.If it is determined in step 1010 that the camera has been photographed or if the image information of the user has been acquired in step 1020, the display system responds to the photographed user in step 1030 to display in the database. One of a plurality of images stored in advance is selected.

그리고, 상기 디스플레이 시스템은 1030 단계에 의해 선택된 이미지를 상기 대형 스크린으로 전송하고, 상기 전송된 이미지에 대한 디스플레이를 수행한다.The display system transmits the image selected in step 1030 to the large screen, and displays the transmitted image.

이에 따라, 상기 대형 스크린에는 상기 터치 스크린을 조작하여 자신을 촬영한 사용자들 각각에 대응하는 이미지들이 디스플레이될 수 있다.Accordingly, images corresponding to each of users who photographed themselves by manipulating the touch screen may be displayed on the large screen.

나아가, 상기 디스플레이 시스템은 사용자의 영상 정보를 분석하여 그 분석 결과에 따라 다른 이미지를 상기 대형 스크린에 디스플레이할 수도 있다.Furthermore, the display system may analyze the image information of the user and display another image on the large screen according to the analysis result.

이를 위하여, 상기 디스플레이 시스템은 상기 복수의 이미지들을 유형별로 그룹핑하여 저장할 수 있고, 상기 대형 스크린에 전송할 이미지를 선택할 때 사용자의 영상 정보가 속하는 유형의 그룹에 대응하는 이미지들 중 하나를 선택할 수 있다. 이때, 상기 유형은 사람의 감정, 표정, 나이, 성별, 움직임 및 의복정보 중 적어도 하나에 관련된 정보가 될 수 있다.To this end, the display system may group and store the plurality of images by type, and when selecting an image to be transmitted to the large screen, the display system may select one of images corresponding to a type group to which the user's image information belongs. In this case, the type may be information related to at least one of a person's emotion, facial expression, age, gender, movement, and clothing information.

실시예로서, 상기 디스플레이 시스템은 상기 영상 정보에서 얼굴을 인식하고, 그 얼굴이 속하는 유형의 그룹에 대응하는 이미지들 중 하나를 상기 대형 스크린에 디스플레이할 수 있다. 이 동작은 도 11에 도시된 바와 같이 실시예로서, 구현될 수 있다.In an embodiment, the display system may recognize a face in the image information, and display one of the images corresponding to the type of group to which the face belongs on the large screen. This operation may be implemented as an embodiment, as shown in FIG.

도 11을 참조하면, 상기 디스플레이 시스템은 1031 단계에서, 상기 터치 스크린으로부터 획득된 영상 정보 또는 상기 카메라로부터 획득되는 영상 정보를 기초로, 사용자의 얼굴을 인식할 수 있다.Referring to FIG. 11, in operation 1031, the display system may recognize a face of a user based on image information obtained from the touch screen or image information obtained from the camera.

상기 디스플레이 시스템은 1032 단계에서, 상기 인식된 얼굴의 특징점을 검출하고, 그 검출 결과에 따라 상기 영상 정보가 속하는 유형을 결정할 수 있다. 예컨대, 상기 디스플레이 시스템은 상기 얼굴에 대하여 검출된 특징점을 기초로, 상기 사용자의 나이를 추정할 수 있고, 상기 추정된 나이(예컨대, 24세)의 유형(예컨대, 20대)을 상기 영상 정보가 속하는 유형으로 결정할 수 있다.In operation 1032, the display system may detect a feature point of the recognized face, and determine a type to which the image information belongs according to the detection result. For example, the display system may estimate the age of the user based on the feature points detected for the face, and the image information may be stored in the type (eg, 20s) of the estimated age (eg, 24 years old). You can decide which type you belong to.

상기 디스플레이 시스템은 1033 단계에서, 상기 결정된 유형의 그룹에 대응하는 이미지들 중 하나를 상기 사용자에 대응하는 이미지로 선택할 수 있다. 따라서, 상기 디스플레이 시스템은 20대에 대응하는 이미지들 중 하나를 선택할 수 있고, 이에 따라, 대형 스크린에는 20대에 대응하는 특정 이미지가 디스플레이 될 것이다.In operation 1033, the display system may select one of the images corresponding to the determined type of group as the image corresponding to the user. Accordingly, the display system may select one of the images corresponding to the twenties, so that a specific image corresponding to the twenties will be displayed on the large screen.

나아가, 상기 디스플레이 시스템의 동작 방법은 상기 대형 스크린에 상기 사용자에 대응하는 이미지를 상기 사용자에게 보여준 후에, 상기 사용자를 위한 사용자 맞춤형 아바타를 자동으로 생성할 수 있다.In addition, the operation method of the display system may automatically generate a user-customized avatar for the user after showing the image corresponding to the user on the large screen to the user.

이 경우의 동작 방법은 도 12를 통해 설명될 수 있다.An operation method in this case can be described with reference to FIG. 12.

상기 디스플레이 시스템은 1050 단계에서, 상기 사용자가 뒷면의 상황을 보지 못하게 하는 반사 유리 뒤에서, 상기 사용자를 촬영할 수 있고, 상기 디스플레이 시스템은 1060 단계에서, 상기 촬영의 영상으로부터 상기 사용자의 얼굴을 인식할 수 있다.The display system may photograph the user behind the reflective glass that prevents the user from seeing the situation on the back side in step 1050, and the display system may recognize the face of the user from the image of the photographing in step 1060. have.

여기서, 상기 디스플레이 시스템은 다른 실시예로서, 1050단계에서 상기 반사 유리 뒤에서 상기 사용자가 특정 영역 내에 위치하였는 지만을 감지하고, 1060 단계에서는 앞서 카메라에 의해 촬영된 영상 정보로부터 상기 얼굴을 인식하는 것으로 구현될 수도 있다.In another embodiment, the display system detects that the user is located within a specific area behind the reflective glass in step 1050, and recognizes the face from the image information previously photographed by the camera in step 1060. May be

그리고, 1070 단계에서, 상기 디스플레이 시스템은 1060 단계에서, 상기 인식된 얼굴과, 미리 저장된 아바타들의 후보들에 기초하여, 사용자 맞춤형 아바타를 생성할 수 있다.In operation 1070, the display system may generate a user-customized avatar based on the recognized face and candidates of pre-stored avatars.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. The methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

Claims (16)

삭제delete 사용자를 촬영하는 카메라;
상기 촬영된 사용자의 영상 정보를 디스플레이하고, 상기 사용자로부터의 인터렉션에 응답하는 터치 스크린;
상기 터치 스크린과 연동하는 대형 스크린;
미리 정의된 또는 상기 영상 정보에 따라 생성되는 복수의 이미지들을 저장하는 데이터베이스; 및
상기 카메라의 촬영 동작에 응답하거나 또는 상기 카메라에 의해 촬영된 영상 정보를 획득함에 응답하여, 상기 저장된 복수의 이미지들 중 어느 하나를 선택하고, 상기 선택된 이미지를 상기 대형 스크린으로 전송하는 프로세서
를 포함하고,상기 카메라에서 다른 사용자가 더 촬영된 경우,
상기 프로세서는
상기 다른 사용자를 촬영함에 응답하여 또는 상기 촬영된 다른 사용자의 영상 정보를 획득함에 응답하여, 상기 저장된 복수의 이미지들 중 어느 하나의 이미지를 추가로 선택하고, 상기 추가로 선택된 이미지를 상기 대형 스크린으로 전송하고,
상기 대형 스크린은
기존의 디스플레이를 유지하면서, 상기 추가로 선택된 이미지를 더 디스플레이하는
디스플레이 시스템.
A camera for photographing the user;
A touch screen displaying image information of the photographed user and responsive to an interaction from the user;
A large screen interlocked with the touch screen;
A database storing a plurality of images predefined or generated according to the image information; And
A processor for selecting any one of the plurality of stored images and transmitting the selected image to the large screen in response to a photographing operation of the camera or obtaining image information photographed by the camera
Including, If another user is taken more from the camera,
The processor
In response to photographing the other user or in response to acquiring image information of the photographed other user, further selecting any one of the stored plurality of images, and converting the additionally selected image to the large screen. Send,
The large screen
While maintaining the existing display, further displaying the additional selected image
Display system.
사용자를 촬영하는 카메라;
상기 촬영된 사용자의 영상 정보를 디스플레이하고, 상기 사용자로부터의 인터렉션에 응답하는 터치 스크린;
상기 터치 스크린과 연동하는 대형 스크린;
미리 정의된 또는 상기 영상 정보에 따라 생성되는 복수의 이미지들을 저장하는 데이터베이스; 및
상기 카메라의 촬영 동작에 응답하거나 또는 상기 카메라에 의해 촬영된 영상 정보를 획득함에 응답하여, 상기 저장된 복수의 이미지들 중 어느 하나를 선택하고, 상기 선택된 이미지를 상기 대형 스크린으로 전송하는 프로세서
를 포함하고,
상기 데이터베이스는
상기 복수의 이미지들을 유형별로 그룹핑하여 저장하고,
상기 프로세서는
상기 촬영된 영상 정보가 속하는 유형의 그룹에 대응하는 이미지들 중 어느 하나를 선택하는
디스플레이 시스템.
A camera for photographing the user;
A touch screen displaying image information of the photographed user and responsive to an interaction from the user;
A large screen interlocked with the touch screen;
A database storing a plurality of images predefined or generated according to the image information; And
A processor for selecting any one of the plurality of stored images and transmitting the selected image to the large screen in response to a photographing operation of the camera or obtaining image information photographed by the camera
Lt; / RTI >
The database
Grouping and storing the plurality of images by type,
The processor
Selecting any one of the images corresponding to the type of group to which the photographed image information belongs
Display system.
제3항에 있어서,
상기 유형은 사람의 감정, 표정, 나이, 성별, 움직임 및 의복정보 중 적어도 하나에 관련된 디스플레이 시스템.
The method of claim 3,
And the type relates to at least one of a person's emotion, facial expression, age, gender, movement, and clothing information.
제3항에 있어서,
상기 프로세서는
상기 영상 정보로부터 상기 사용자의 얼굴을 인식하고, 상기 인식 결과를 기초로 상기 영상 정보가 속하는 유형을 결정하는 디스플레이 시스템.
The method of claim 3,
The processor
A display system for recognizing a face of the user from the image information and determining a type to which the image information belongs based on the recognition result.
제5항에 있어서,
상기 프로세서는
상기 결정된 유형을 기초로, 상기 대형 스크린의 디스플레이 정보를 변경하거나, 또는 상기 대형 스크린에 전송되는 이미지들의 각각 또는 전체의 디스플레이 정보를 변경하는 디스플레이 시스템.
The method of claim 5,
The processor
Based on the determined type, changing display information of the large screen, or changing display information of each or all of the images transmitted to the large screen.
제2항 또는 제3항에 있어서,
상기 프로세서는 이동 단말 또는 네트워크와 연결된 컴퓨팅 단말로부터 전송된 상기 사용자의 영상 정보를 획득하고, 상기 이동 단말 또는 네트워크와 연결된 컴퓨팅 단말로부터 획득된 영상 정보에 따라 상기 저장된 복수의 이미지들 중 어느 하나를 선택하고, 상기 선택된 이미지를 상기 대형 스크린으로 전송하는 디스플레이 시스템.
The method according to claim 2 or 3,
The processor acquires image information of the user transmitted from a mobile terminal or a computing terminal connected to a network, and selects any one of the stored images according to the image information obtained from the mobile terminal or a computing terminal connected to a network. And transmit the selected image to the large screen.
제2항 또는 제3항에 있어서,
상기 사용자가 뒷면의 상황을 보지 못하게 하는 반사 유리;
상기 반사 유리 뒤에서 상기 사용자에 대응하는 아바타를 생성하기 위하여 상기 사용자의 얼굴을 인식하는 아바타 생성 카메라; 및
미리 저장된 아바타들의 후보들과 상기 인식된 사용자의 얼굴에 기초하여 사용자 맞춤형 아바타를 생성하는 아바타 생성 장치
를 더 포함하는 디스플레이 시스템.
The method according to claim 2 or 3,
Reflective glass to prevent the user from seeing the situation of the back;
An avatar generation camera that recognizes a face of the user to generate an avatar corresponding to the user behind the reflective glass; And
Avatar generating device for generating a user-customized avatar based on the candidates of the pre-stored avatars and the recognized user's face
Display system further comprising.
제8항에 있어서,
상기 아바타 생성 카메라는
상기 반사 유리 뒤에서 상기 반사 유리 앞측을 연속적으로 촬영하고, 상기 연속적으로 촬영되는 영상로부터 사람의 얼굴을 인식하고, 상기 인식이 성공함에 응답하여 상기 인식된 얼굴의 영상 정보를 상기 아바타 생성 장치로 제공하며,
상기 아바타 생성 장치는
상기 사용자의 의도와 무관하게 상기 사용자 맞춤형 아바타를 생성하는
디스플레이 시스템.
9. The method of claim 8,
The avatar generation camera
Continuously photographing the front side of the reflective glass behind the reflective glass, recognizing a face of a person from the continuously photographed image, and providing image information of the recognized face to the avatar generating device in response to the recognition being successful; ,
The avatar generating device
Generating the user-customized avatar regardless of the user's intention
Display system.
삭제delete 사용자를 촬영하는 카메라와 연동하는 터치 스크린 및 상기 터치 스크린과 연동하는 대형 스크린을 포함하는 디스플레이 시스템의 동작 방법에 있어서,
상기 대형 스크린에 디스플레이할 대상의 복수의 이미지들을 저장하는 단계;
상기 카메라의 촬영 동작에 응답하거나 또는 상기 카메라에 의해 촬영된 영상 정보를 획득함에 응답하여, 상기 저장된 복수의 이미지들 중 어느 하나를 선택하는 단계; 및
상기 선택된 이미지를 상기 대형 스크린으로 전송하는 단계
를 포함하고,
상기 카메라에서 다른 사용자가 더 촬영된 경우,
상기 저장된 복수의 이미지들 중 하나를 선택하는 단계는
상기 다른 사용자를 촬영함에 응답하여 또는 상기 촬영된 다른 사용자의 영상 정보를 획득함에 응답하여, 상기 저장된 복수의 이미지들 중 이전에 선택된 이미지와는 다른 이미지를 선택하고,
상기 대형 스크린은
기존의 디스플레이를 유지하면서, 상기 선택된 다른 이미지를 추가로 디스플레이하는
디스플레이 시스템의 동작 방법.
In the operating method of the display system comprising a touch screen interlocked with the camera for photographing the user and a large screen interlocked with the touch screen,
Storing a plurality of images of an object to be displayed on the large screen;
Selecting any one of the stored plurality of images in response to a photographing operation of the camera or in response to obtaining image information photographed by the camera; And
Transferring the selected image to the large screen
Lt; / RTI >
If another user is taken with the camera,
Selecting one of the stored plurality of images
In response to photographing the other user or acquiring image information of the photographed other user, selecting an image different from a previously selected image among the plurality of stored images,
The large screen
To further display the selected other image while maintaining the existing display.
How the display system works.
사용자를 촬영하는 카메라와 연동하는 터치 스크린 및 상기 터치 스크린과 연동하는 대형 스크린을 포함하는 디스플레이 시스템의 동작 방법에 있어서,
상기 대형 스크린에 디스플레이할 대상의 복수의 이미지들을 저장하는 단계;
상기 카메라의 촬영 동작에 응답하거나 또는 상기 카메라에 의해 촬영된 영상 정보를 획득함에 응답하여, 상기 저장된 복수의 이미지들 중 어느 하나를 선택하는 단계; 및
상기 선택된 이미지를 상기 대형 스크린으로 전송하는 단계
를 포함하고,
상기 복수의 이미지들을 저장하는 단계는
상기 복수의 이미지들을 유형별로 그룹핑하여 저장하고,
상기 저장된 복수의 이미지들 중 하나를 선택하는 단계는
상기 촬영된 영상 정보가 속하는 유형의 그룹에 대응하는 이미지들 중 어느 하나를 선택하는
디스플레이 시스템의 동작 방법.
In the operating method of the display system comprising a touch screen interlocked with the camera for photographing the user and a large screen interlocked with the touch screen,
Storing a plurality of images of an object to be displayed on the large screen;
Selecting any one of the stored plurality of images in response to a photographing operation of the camera or in response to obtaining image information photographed by the camera; And
Transferring the selected image to the large screen
Lt; / RTI >
Storing the plurality of images
Grouping and storing the plurality of images by type,
Selecting one of the stored plurality of images
Selecting any one of the images corresponding to the type of group to which the photographed image information belongs
How the display system works.
제12항에 있어서,
상기 유형은
사람의 감정, 표정, 나이, 성별, 움직임 및 의복정보 중 적어도 하나에 관련된
디스플레이 시스템의 동작 방법.
The method of claim 12,
The type is
Relating to at least one of a person's emotions, facial expressions, age, gender, movement, and clothing information
How the display system works.
제11항 또는 제12항에 있어서,
상기 사용자가 뒷면의 상황을 보지 못하게 하는 반사 유리 뒤에서, 상기 사용자의 얼굴을 인식하는 단계; 및
상기 인식된 사용자의 얼굴과, 저장된 아바타들의 후보들에 기초하여, 사용자 맞춤형 아바타를 생성하는 단계
를 더 포함하는 디스플레이 시스템의 동작 방법.
13. The method according to claim 11 or 12,
Recognizing the face of the user behind a reflective glass that prevents the user from seeing the situation behind; And
Generating a user-customized avatar based on the recognized user's face and candidates of the stored avatars
Method of operation of the display system further comprising.
제14항에 있어서,
상기 사용자가 뒷면의 상황을 보지 못하게 하는 반사 유리 뒤에서, 상기 사용자의 얼굴을 인식하는 단계는
상기 반사 유리 뒤에서 상기 반사 유리 앞측을 연속적으로 촬영하는 단계;
상기 연속적으로 촬영되는 영상으로부터 사람의 얼굴을 인식하는 단계; 및
상기 인식이 성공함에 응답하여 상기 인식된 얼굴의 영상 정보를 아바타 생성 장치로 제공하는 단계
를 포함하고,
상기 사용자 맞춤형 아바타를 생성하는 단계는
상기 사용자의 의도와는 무관하게 상기 사용자 맞춤형 아바타를 생성하는
디스플레이 시스템의 동작 방법.
15. The method of claim 14,
Recognizing the face of the user behind the reflective glass that prevents the user from seeing the situation behind
Continuously photographing the front side of the reflective glass behind the reflective glass;
Recognizing a face of a person from the continuously captured image; And
In response to the recognition being successful, providing image information of the recognized face to an avatar generating device.
Lt; / RTI >
Generating the user-customized avatar
Create the user-customized avatar regardless of the user's intention
How the display system works.
제11항 또는 제12항 중 어느 한 항의 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for performing the method of claim 11.
KR1020110059290A 2011-06-17 2011-06-17 Display system and method for large screen KR101268640B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110059290A KR101268640B1 (en) 2011-06-17 2011-06-17 Display system and method for large screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110059290A KR101268640B1 (en) 2011-06-17 2011-06-17 Display system and method for large screen

Publications (2)

Publication Number Publication Date
KR20120139470A KR20120139470A (en) 2012-12-27
KR101268640B1 true KR101268640B1 (en) 2013-06-04

Family

ID=47905948

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110059290A KR101268640B1 (en) 2011-06-17 2011-06-17 Display system and method for large screen

Country Status (1)

Country Link
KR (1) KR101268640B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689830A (en) * 2019-10-10 2020-01-14 辽宁工程技术大学 Geological rock sample collecting and displaying system
US11061533B2 (en) 2015-08-18 2021-07-13 Samsung Electronics Co., Ltd. Large format display apparatus and control method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080106676A (en) * 2007-06-04 2008-12-09 주식회사 케이티 System and method for virtual reality singing room service
KR20090095337A (en) * 2008-03-05 2009-09-09 (주)오늘보다내일 Digital mirror with a photographing function

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080106676A (en) * 2007-06-04 2008-12-09 주식회사 케이티 System and method for virtual reality singing room service
KR20090095337A (en) * 2008-03-05 2009-09-09 (주)오늘보다내일 Digital mirror with a photographing function

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11061533B2 (en) 2015-08-18 2021-07-13 Samsung Electronics Co., Ltd. Large format display apparatus and control method thereof
CN110689830A (en) * 2019-10-10 2020-01-14 辽宁工程技术大学 Geological rock sample collecting and displaying system

Also Published As

Publication number Publication date
KR20120139470A (en) 2012-12-27

Similar Documents

Publication Publication Date Title
CN112738408B (en) Selective identification and ordering of image modifiers
JP7297216B2 (en) Touch-free interface for augmented reality systems
US10026229B1 (en) Auxiliary device as augmented reality platform
KR102664688B1 (en) Method for providing shoot mode based on virtual character and electronic device performing thereof
CN110716645A (en) Augmented reality data presentation method and device, electronic equipment and storage medium
CN105027033B (en) Method, device and computer-readable media for selecting Augmented Reality object
JP6013583B2 (en) Method for emphasizing effective interface elements
KR101894021B1 (en) Method and device for providing content and recordimg medium thereof
CN112243583B (en) Multi-endpoint mixed reality conference
KR20210113333A (en) Methods, devices, devices and storage media for controlling multiple virtual characters
JP6253127B2 (en) Information provision device
EP3090424A1 (en) Assigning virtual user interface to physical object
CN103019536A (en) Interactively zooming content during a presentation
JP2016514865A (en) Real-world analysis visualization
CN113546419B (en) Game map display method, game map display device, terminal and storage medium
JP2020087277A (en) Video synthesizer, method for synthesizing video, and video synthesizing program
US20130182005A1 (en) Virtual fashion mirror system
US20140285686A1 (en) Mobile device and method for controlling the same
KR101268640B1 (en) Display system and method for large screen
KR102077665B1 (en) Virtual movile device implementing system and control method for the same in mixed reality
US11922904B2 (en) Information processing apparatus and information processing method to control display of a content image
CN109144598A (en) Electronics mask man-machine interaction method and system based on gesture
JP6921789B2 (en) Programs and methods that are executed on the computer that provides the virtual space, and information processing devices that execute the programs.
KR101405439B1 (en) System for providing background image based on motion capture, method for providing background image based on motion capture and recording medium thereof
US10069984B2 (en) Mobile device and method for controlling the same

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160520

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180518

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190520

Year of fee payment: 7