KR101306608B1 - Method for providing 3-dimensional display by using smart terminals and robot devices, and 3-dimensional display system using the same - Google Patents

Method for providing 3-dimensional display by using smart terminals and robot devices, and 3-dimensional display system using the same Download PDF

Info

Publication number
KR101306608B1
KR101306608B1 KR1020120019296A KR20120019296A KR101306608B1 KR 101306608 B1 KR101306608 B1 KR 101306608B1 KR 1020120019296 A KR1020120019296 A KR 1020120019296A KR 20120019296 A KR20120019296 A KR 20120019296A KR 101306608 B1 KR101306608 B1 KR 101306608B1
Authority
KR
South Korea
Prior art keywords
smart terminal
image
robot device
providing
face
Prior art date
Application number
KR1020120019296A
Other languages
Korean (ko)
Other versions
KR20130097558A (en
Inventor
정구민
이민식
강동병
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Priority to KR1020120019296A priority Critical patent/KR101306608B1/en
Publication of KR20130097558A publication Critical patent/KR20130097558A/en
Application granted granted Critical
Publication of KR101306608B1 publication Critical patent/KR101306608B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features

Abstract

본 발명은 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하는 기술에 관한 것으로, 특히 스마트 단말(예: 스마트폰, 스마트패드)에서 특정인의 얼굴 사진을 찍은 후에 이를 3차원 이미지로 변환하여 로봇장치로 제공하고 로봇장치에서는 동작 과정에서 이러한 3차원 디스플레이를 얼굴 화면으로 절절하게 활용하는 방법 및 시스템에 관한 것이다. 본 발명에 따른 네트워크로 연결된 스마트 단말과 로봇장치를 이용하여 3차원 디스플레이를 제공하는 방법은, 스마트 단말이 사진 이미지로부터 얼굴 이미지를 추출하는 제 1 단계; 스마트 단말에서 그 추출된 얼굴 이미지를 이용하여 3차원 얼굴 영상을 생성하는 제 2 단계; 스마트 단말이 그 생성된 3차원 영상을 로봇장치의 얼굴 화면으로 사용할 수 있도록 외부의 로봇장치로 제공하는 제 3 단계;를 포함하여 구성된다.The present invention relates to a technology for providing a three-dimensional image by using a smart terminal and a robot device, in particular after taking a photograph of the face of a specific person in a smart terminal (for example, smart phone, smart pad) and converts it into a three-dimensional image robot The present invention relates to a method and system for providing a device and utilizing the three-dimensional display as a face screen in an operation process. According to an embodiment of the present invention, a method of providing a 3D display using a smart terminal connected to a network and a robot apparatus includes: a first step of extracting, by a smart terminal, a face image from a photo image; Generating a three-dimensional face image by using the extracted face image in the smart terminal; And a third step of providing the smart device to an external robot device so that the generated 3D image can be used as a face screen of the robot device.

Description

스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하는 방법 및 이를 이용하는 3차원 영상제공 시스템 {METHOD FOR PROVIDING 3-DIMENSIONAL DISPLAY BY USING SMART TERMINALS AND ROBOT DEVICES, AND 3-DIMENSIONAL DISPLAY SYSTEM USING THE SAME}Method of providing 3D image using smart terminal and robot device and 3D image providing system using the same {METHOD FOR PROVIDING 3-DIMENSIONAL DISPLAY BY USING SMART TERMINALS AND ROBOT DEVICES, AND 3-DIMENSIONAL DISPLAY SYSTEM USING THE SAME}

본 발명은 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하는 기술에 관한 것으로, 특히 스마트 단말(예: 스마트폰, 스마트패드)에서 특정인의 얼굴 사진을 찍은 후에 이를 3차원 이미지로 변환하여 로봇장치로 제공하고 로봇장치에서는 동작 과정에서 이러한 3차원 디스플레이를 얼굴 화면으로 절절하게 활용하는 방법 및 시스템에 관한 것이다.
The present invention relates to a technology for providing a three-dimensional image by using a smart terminal and a robot device, in particular after taking a photograph of the face of a specific person in a smart terminal (for example, smart phone, smart pad) and converts it into a three-dimensional image robot The present invention relates to a method and system for providing a device and utilizing the three-dimensional display as a face screen in an operation process.

일반적으로 스마트 단말(예: 스마트폰, 스마트패드)은 음성 통화를 기본으로 일정관리 등을 제공하였으나, 점차로 통신기술이 발전하면서 인터넷을 비롯한 데이터 통신까지 가능해졌다. 또한 전자기기의 기술도 함께 발전하면서 대부분의 스마트 단말 내에 카메라를 내장하게 되었으며, 점차로 스마트 단말이 작은 컴퓨터의 역할까지 할 수 있게 되었다. 이처럼 다양한 작업을 할 수 있는 형태의 스마트 단말을 스마트 단말이라 한다.In general, smart terminals (eg, smart phones, smart pads) provided schedule management based on voice calls, but as communication technologies have advanced, data communication including the Internet has become possible. In addition, as the technology of electronic devices has evolved, cameras are embedded in most smart terminals, and smart terminals can gradually function as small computers. Such a smart terminal that can perform various tasks is called a smart terminal.

즉, 스마트 단말은 기본적인 전화 기능에 손안의 컴퓨터라 불릴 정도의 다양한 기능들을 수행할 수 있는 전자기기가 되었다. 이러한 스마트 단말에서는 전화의 기능을 수행할 수 있으며, 부가적으로 다른 적어도 하나의 무선 매체와 통신이 가능하며, 카메라를 통해 사진 촬영, 동영상의 촬영은 물론 그 밖에 다양한 서비스들이 가능하다.In other words, the smart terminal has become an electronic device capable of performing various functions such as a computer in a hand for basic telephone functions. Such a smart terminal may perform a function of a phone, and additionally, communication with at least one other wireless medium is possible, and a variety of other services are possible through a camera, such as taking a picture and a video.

한편, 최근 로봇 기술이 발전하면서 다양한 분야에 로봇장치들이 사용되고 있다. 이러한 로봇장치들은 최첨단 산업분야에 사용되는 고가의 로봇장치로부터 쉽게는 아이들의 장난감 로봇까지 다양한 형태를 취하고 있다.On the other hand, with the recent development of robot technology, robot devices have been used in various fields. These robotic devices take a variety of forms, from expensive robotic devices used in high-tech industries to children's toy robots.

아이들의 장난감 또는 학습용 로봇장치도 있다. 이러한 로봇장치들은 저가형 로봇장치로 소리를 내거나 또는 로봇의 움직임 예를 들어 걷는 동작, 팔을 움직이는 동작 등의 움직임이 있고, 또 다른 형태로는 사진 또는 동영상을 재생하도록 하는 등의 기능을 갖춘 로봇 등도 있다.Children's toys or learning robots are also available. These robotic devices are low-cost robotic devices that make sounds or movements of the robots, such as walking or arm movements. In another form, the robots have functions such as playing pictures or videos. have.

다른 한편, 이러한 놀이용 또는 학습용 로봇장치를 스마트 단말과 연계하기 위한 노력들이 이루어지고 있다. 이러한 필요는 스마트 단말의 활용도를 높일 뿐 아니라 놀이용 또는 학습용 로봇장치의 역할을 증대시킬 수 있기 때문이다. 또한 이러한 로봇장치의 역할 증대로 인해 다양한 형태의 교육이 이루어질 수 있기 때문이다.On the other hand, efforts have been made to link such play or learning robotic devices with smart terminals. This necessity is because not only increases the utilization of the smart terminal, but also increases the role of the robot device for play or learning. In addition, because of the increased role of the robot device can be achieved in various forms of education.

따라서 이러한 형태의 전자기기들과 스마트 단말을 연계하기 위한 다양한 기능들이 더욱 요구되고 있다.
Therefore, various functions for linking these types of electronic devices and smart terminals are further required.

본 발명에서는 스마트 단말에서 촬영한 사진을 소프트웨어를 통해 3차원 영상으로 변환하여 로봇장치로 제공하며 로봇장치에서는 이러한 3차원 영상을 동작 중에 적절히 활용하는 기술을 제공한다.In the present invention, a photograph taken by a smart terminal is converted into a 3D image through software and provided to the robot device, and the robot device provides a technology for appropriately utilizing such a 3D image during operation.

또한 본 발명에서는 스마트 단말을 이용하여 로봇장치 또는 모니터와 스피커 및 통신장비를 가진 전자기기로 스마트 단말에서 촬영한 3차원 영상을 전송하고, 스마트 단말의 움직임을 감지하여 3차원 영상이 움직임까지 제공할 수 있는 방법과 그 시스템을 제공한다.
In addition, the present invention transmits a three-dimensional image taken by the smart terminal to the robot device or an electronic device having a monitor and a speaker and a communication device using the smart terminal, and detects the movement of the smart terminal to provide a three-dimensional image to the movement. It provides a method and a system.

상기의 목적을 달성하기 위한 본 발명에 따른 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하기 위한 방법은, 스마트 단말(100)과 로봇장치(200)를 이용하여 3차원 디스플레이를 제공하기 위하여, 스마트 단말이 사진 이미지로부터 얼굴 이미지를 추출하는 제 1 단계; 스마트 단말에서 위 추출된 얼굴 이미지를 이용하여 3차원 얼굴 영상을 생성하는 제 2 단계; 스마트 단말이 위 생성된 3차원 영상을 로봇장치의 얼굴 화면으로 사용할 수 있도록 외부의 로봇장치로 제공하는 제 3 단계;를 포함하여 구성된다.Method for providing a three-dimensional image by using a smart terminal and a robot device according to the present invention for achieving the above object, to provide a three-dimensional display using the smart terminal 100 and the robot device 200. A first step of the smart terminal extracting a face image from the photo image; Generating a 3D face image by using the extracted face image in the smart terminal; And a third step of providing the external 3D image to the robot apparatus so that the smart terminal can use the generated 3D image as the face screen of the robot apparatus.

이때, 본 발명의 3차원 영상 제공 방법에서 제 1 단계는, 스마트 단말의 카메라부를 이용하여 대상체의 얼굴을 촬영하는 단계; 그 촬영된 사진 이미지로부터 얼굴 이미지를 추출하는 단계:를 포함하여 구성될 수 있다. 또한, 제 2 단계는 위 추출된 얼굴 이미지에 CCA 변환 알고리즘을 적용하여 3차원 얼굴 영상을 생성하도록 구성될 수도 있다.At this time, the first step in the three-dimensional image providing method of the present invention, the step of photographing the face of the object using the camera unit of the smart terminal; And extracting a face image from the photographed photo image. In addition, the second step may be configured to apply the CCA transformation algorithm to the extracted face image to generate a three-dimensional face image.

또한, 본 발명에 따른 3차원 영상 제공 방법은, 스마트 단말의 운동 감지부를 통해 스마트 단말의 모션을 검출하는 제 4 단계; 스마트 단말이 모션에 대응하여 3차원 영상을 재생성하는 제 5 단계; 스마트 단말이 그 재생성된 3차원 영상을 로봇장치의 얼굴 화면으로 사용할 수 있도록 외부의 로봇장치로 제공하는 제 6 단계;를 더 포함하여 구성될 수 있다.In addition, the three-dimensional image providing method according to the invention, the fourth step of detecting the motion of the smart terminal through the motion detection unit of the smart terminal; A fifth step of regenerating the 3D image in response to the motion by the smart terminal; And a sixth step of providing the reproduced three-dimensional image to the external robot device so that the smart terminal can use the reproduced three-dimensional image as the face screen of the robot device.

또한, 본 발명에 따른 3차원 영상 제공 방법은, 스마트 단말이 사용자로부터 문자 데이터를 제공받는 제 7 단계; 스마트 단말이 문자 데이터에 대응하는 음소 데이터를 메모리로부터 획득하는 제 8 단계; 스마트 단말이 음소 데이터에 대응하여 3차원 영상의 입의 움직임 정보를 생성하는 제 9 단계; 스마트 단말이 3차원 영상의 입 움직임 정보를 로봇장치로 전송하여 로봇장치가 얼굴 화면에서 입 움직임 정보에 대응하여 얼굴 화면을 변경할 수 있도록 제공하는 제 10 단계;를 더 포함하여 구성될 수 있다.In addition, the three-dimensional image providing method according to the present invention comprises a seventh step of receiving the text data from the smart terminal from the user; An eighth step of the smart terminal obtaining phoneme data corresponding to the text data from the memory; A ninth step of the smart terminal generating motion information of a mouth of the 3D image in response to the phoneme data; The smart terminal may transmit the mouth movement information of the 3D image to the robot device to provide the robot device to change the face screen in response to the mouth movement information on the face screen.

또한, 본 발명에 따른 3차원 영상 제공 방법은, 스마트 단말이 사용자로부터 음성 신호를 제공받는 제 11 단계; 스마트 단말이 음성 신호로부터 텍스트를 인식하는 제 12 단계; 그 인식된 텍스트에 대응하는 음소 데이터를 메모리로부터 획득하는 제 13 단계; 스마트 단말이 음소 데이터에 대응하여 3차원 영상의 입의 움직임 정보를 생성하는 제 14 단계; 스마트 단말이 3차원 영상의 입 움직임 정보를 로봇장치로 전송하여 로봇장치가 얼굴 화면에서 입 움직임 정보에 대응하여 얼굴 화면을 변경할 수 있도록 제공하는 제 15 단계;를 더 포함하여 구성될 수 있다.In addition, the three-dimensional image providing method according to the present invention, the smart terminal is an eleventh step of receiving a voice signal from the user; A twelfth step of the smart terminal recognizing the text from the voice signal; A thirteenth step of obtaining phoneme data corresponding to the recognized text from the memory; A fourteenth step of the smart terminal generating motion information of a mouth of the 3D image in response to the phoneme data; The smart terminal may transmit the mouth movement information of the 3D image to the robot device to provide the robot apparatus to change the face screen in response to the mouth movement information on the face screen.

상기의 목적을 달성하기 위한 본 발명에 따른 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하기 위한 시스템은, 네트워크로 연결된 스마트 단말(100)과 로봇장치(200)를 이용하여 3차원 디스플레이를 제공하기 위하여 스마트 단말에 설치되며, 본 발명에 따른 3차원 영상 제공 방법을 수행하기 위한 스마트 단말 3차원 영상제공 프로그램을 기록한 컴퓨터로 판독가능한 기록매체; 프로그램이 실행되는 스마트 단말(100)과 데이터 통신을 수행하기 위한 로봇장치 통신부(210)와, 로봇장치 통신부를 통해 스마트 단말로부터 제공된 3차원 얼굴 영상을 디스플레이 제공하기 위한 영상 제공부(230)와, 스마트 단말로부터 수신된 3차원 영상을 영상 제공부(230)로 출력을 제어하는 로봇장치 제어부(220)를 포함하는 로봇장치(200);를 포함하여 구성된다.The system for providing a 3D image using the smart terminal and the robot device according to the present invention for achieving the above object, the three-dimensional display using a smart terminal 100 and the robot device 200 connected by a network A computer readable recording medium installed in a smart terminal for providing, a computer readable recording medium recording a smart terminal 3D image providing program for performing a 3D image providing method according to the present invention; A robot device communication unit 210 for performing data communication with the smart terminal 100 on which the program is executed, an image providing unit 230 for displaying a 3D face image provided from the smart terminal through the robot device communication unit, and And a robot device 200 including a robot device controller 220 for controlling the output of the 3D image received from the smart terminal to the image providing unit 230.

본 발명의 3차원 영상 제공 시스템에서, 기록매체에 기록된 스마트 단말 3차원 영상제공 프로그램은 스마트 단말이 사용자로부터 문자 데이터를 제공받는 제 7 단계와, 스마트 단말이 문자 데이터에 대응하는 음소 데이터를 메모리로부터 획득하는 제 8 단계와, 스마트 단말이 음소 데이터에 대응하여 3차원 영상의 입의 움직임 정보를 생성하는 제 9 단계와, 스마트 단말이 3차원 영상의 입 움직임 정보를 로봇장치로 전송하여 로봇장치가 얼굴 화면에서 입 움직임 정보에 대응하여 얼굴 화면을 변경할 수 있도록 제공하는 제 10 단계를 더 수행하도록 구성되고, 로봇장치(200)의 영상 제공부(230)는, 로봇장치 통신부를 통해 스마트 단말로부터 제공된 입 움직임 정보에 대응하여 3차원 얼굴 영상에서 입 부분의 이미지를 변형 디스플레이하도록 구성될 수 있다.In the three-dimensional image providing system of the present invention, the smart terminal three-dimensional image providing program recorded on the recording medium is a seventh step in which the smart terminal is provided with the text data from the user, and the smart terminal to store the phoneme data corresponding to the text data An eighth step of acquiring the information from the mobile terminal; and a ninth step of the smart terminal generating mouth motion information of the 3D image in response to the phoneme data; and the smart terminal transmitting the mouth motion information of the 3D image to the robot device. Is further configured to perform a tenth step of providing the user to change the face screen in response to the mouth movement information on the face screen, and the image providing unit 230 of the robot device 200 is provided from the smart terminal through the robot device communication unit. It may be configured to deform the image of the mouth portion in the three-dimensional face image corresponding to the provided mouth movement information. .

또한, 기록매체에 기록된 스마트 단말 3차원 영상제공 프로그램은 스마트 단말이 사용자로부터 음성 신호를 제공받는 제 11 단계와, 스마트 단말이 음성 신호로부터 텍스트를 인식하는 제 12 단계와, 그 인식된 텍스트에 대응하는 음소 데이터를 메모리로부터 획득하는 제 13 단계와, 스마트 단말이 음소 데이터에 대응하여 3차원 영상의 입의 움직임 정보를 생성하는 제 14 단계와, 스마트 단말이 3차원 영상의 입 움직임 정보를 로봇장치로 전송하여 로봇장치가 얼굴 화면에서 입 움직임 정보에 대응하여 얼굴 화면을 변경할 수 있도록 제공하는 제 15 단계를 더 수행하도록 구성되고, 로봇장치(200)의 영상 제공부(230)는, 로봇장치 통신부를 통해 스마트 단말로부터 제공된 입 움직임 정보에 대응하여 3차원 얼굴 영상에서 입 부분의 이미지를 변형 디스플레이하도록 구성될 수 있다.
In addition, the smart terminal three-dimensional image providing program recorded on the recording medium is the eleventh step of receiving a voice signal from the smart terminal, the twelfth step of recognizing the text from the voice signal from the smart terminal, and the recognized text A thirteenth step of acquiring corresponding phoneme data from the memory; a fourteenth step of the smart terminal generating motion information of the mouth of the 3D image in response to the phoneme data; and a smart terminal of the mouth motion information of the 3D image by the robot. It is configured to perform the fifteenth step of transmitting to the device so that the robot device can change the face screen in response to the mouth movement information on the face screen, the image providing unit 230 of the robot device 200, the robot device Display the image of the mouth part in the 3D face image corresponding to the mouth motion information provided from the smart terminal through the communication unit It can be configured to.

본 발명에서는 스마트 단말을 이용하여 사진을 촬영하고, 촬영된 사진을 3차원 정보로 변환한 후 변환된 데이터를 로봇장치 또는 모니터와 스피커 및 통신기기를 갖춘 전자장비로 제공함으로써 스마트 단말에서 제작된 3차원 영상을 제공할 수 있다. 또한 스마트 단말에서 스마트 단말의 움직임을 감지하여 제작된 3차원 영상의 움직임을 제어하도록 할 수 있다. 뿐만 아니라 음성 또는 텍스트 등을 함께 전송하도록 하여 3차원 영상이 음성을 함께 제공할 수 있도록 할 수 있다.
In the present invention, by taking a picture by using a smart terminal, and converts the photographed picture to three-dimensional information and then provide the converted data to the electronic device equipped with a robot device or a monitor, a speaker and a communication device 3 produced in the smart terminal It can provide a dimensional image. In addition, the smart terminal can detect the movement of the smart terminal to control the movement of the produced 3D image. In addition, it is possible to transmit the voice or text together, so that the 3D image can provide the voice together.

[도 1]은 본 발명에 따라 스마트 단말에서 전자기기로 3차원 영상을 제공하기 위한 시스템의 개념적인 구성도.
[도 2]는 본 발명의 실시예에 따른 스마트 단말의 기능적 내부 블록 구성도.
[도 3]은 본 발명이 적용되는 로봇장치의 기능 블록 구성도.
[도 4]는 본 발명의 바람직한 실시예에 따라 스마트 단말에서 로봇장치로 3차원 영상을 제공하기 위한 제어 흐름도.
[도 5a]는 본 발명의 일 실시예에 따라 스마트 단말의 화면 제공부(170)에 촬영된 사진과 3차원 영상 및 사용자의 선택 목록 아이콘을 도시한 예시도.
[도 5b]는 촬영 이미지로부터 3차원 이미지를 생성하는 과정을 도시한 도면.
[도 6]은 본 발명의 실시예에 따라 스마트 단말에서 로봇장치로 3차원 영상을 제공할 시 영상 표시모드의 제어 흐름도.
[도 7]은 본 발명에 따라 스마트 단말의 움직임에 따라 3차원 영상의 움직임을 검출하는 과정을 설명하기 위한 예시도.
[도 8]은 본 발명에 따른 로봇장치에서 3차원 데이터를 수신하여 표시하고, 음성 및 음향 신호를 수신하여 사용자에게 제공하기 위한 제어 흐름도.
[도 9]는 본 발명에 따라 3차원 영상에 추가적으로 음성 또는 텍스트를 이용한 음성 데이터 제공시 3차원 영상 데이터의 움직임을 설명하기 위한 예시도.
[도 10]은 본 발명에 따라 스마트 단말에서 로봇장치로 3차원 영상과 음성을 전송하는 경우의 전체 동작을 설명하기 위한 개념도.
1 is a conceptual diagram of a system for providing a three-dimensional image from the smart terminal to the electronic device in accordance with the present invention.
2 is a functional internal block diagram of a smart terminal according to an embodiment of the present invention.
3 is a functional block diagram of a robot device to which the present invention is applied.
4 is a control flowchart for providing a three-dimensional image from the smart terminal to the robot device according to an embodiment of the present invention.
FIG. 5A is an exemplary diagram illustrating a picture taken in a screen providing unit 170 of a smart terminal, a 3D image, and a user's selection list icon according to an embodiment of the present invention.
5B is a diagram illustrating a process of generating a 3D image from a captured image.
6 is a control flowchart of an image display mode when providing a 3D image from a smart terminal to a robot device according to an embodiment of the present invention.
7 is an exemplary view for explaining a process of detecting the movement of the three-dimensional image according to the movement of the smart terminal according to the present invention.
8 is a control flowchart for receiving and displaying three-dimensional data in a robot device according to the present invention, and for receiving and providing a voice and sound signal to a user.
9 is an exemplary view for explaining the movement of the three-dimensional image data when providing audio data using audio or text in addition to the three-dimensional image in accordance with the present invention.
10 is a conceptual diagram for explaining the overall operation in the case of transmitting a three-dimensional image and voice from the smart terminal to the robot device according to the present invention.

이하 첨부된 도면을 참조하여 본 발명을 살펴보기로 한다. 이하에 첨부된 본 발명의 도면은 본 발명의 이해를 돕기 위해 제공되는 것으로, 본 발명의 도면에 예시된 형태 또는 배치 등에 본 발명이 제한되지 않음에 유의해야 한다. 본 발명에 첨부된 도면에 대한 부가적인 실시예에 대한 균등 또는 확장은 도면을 참조한 설명을 통해 이해되어야 할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will now be described with reference to the accompanying drawings. It should be noted that the drawings of the present invention attached hereto are provided for the purpose of helping understanding of the present invention, and the present invention is not limited to the shape or the arrangement exemplified in the drawings of the present invention. BRIEF DESCRIPTION OF THE DRAWINGS The above and other features and advantages of the present invention will be more apparent from the following description taken in conjunction with the accompanying drawings, in which: FIG.

[도 1]은 본 발명에 따라 스마트 단말에서 전자기기로 3차원 영상을 제공하기 위한 시스템의 개념적인 구성도이다. 이하 [도 1]을 참조하여 본 발명이 적용되는 시스템의 구성과 그 동작에 대하여 개괄적으로 살펴보기로 한다.1 is a conceptual diagram of a system for providing a 3D image from the smart terminal to the electronic device according to the present invention. Hereinafter, the configuration and operation of the system to which the present invention is applied will be described with reference to FIG. 1.

본 발명에 따른 시스템에는 스마트 단말(100)과 스마트 단말(100)이 통신을 하기 위한 전자기기(200)를 포함한다. 여기서 전자기기는 통신부와 모니터 및 스피커를 가진 전자기기로 이하의 설명에서는 설명의 편의를 위해 '로봇장치'이라 칭하기로 한다. 또한 스마트 단말(100)을 설명의 편의를 위해 '스마트 단말'이라 칭하기로 한다.The system according to the present invention includes an electronic device 200 for communication between the smart terminal 100 and the smart terminal 100. Here, the electronic device is an electronic device having a communication unit, a monitor, and a speaker, which will be referred to as a robot device for convenience of description in the following description. In addition, the smart terminal 100 will be referred to as a "smart terminal" for convenience of description.

스마트 단말(100)은 기본적으로 무선망(10)과 통신하기 위해 기지국(11)을 통해 음성 또는 데이터 통신이 가능하다. 또한 스마트 단말(100)은 본 발명에 따라 사진을 촬영할 수 있으며, 촬영된 사진을 이용하여 3차원 영상을 생성할 수 있다. 이때 촬영된 사진에서 얼굴만을 추출한다. 이때, 스마트 단말(100)에서 얼굴을 추출하는 방법은 '하 페이스 검출(Haar Face Detecting) 알고리즘'을 이용할 수 있다. 본 발명에서 하 페이스 검출 알고리즘은 일 예로 예시한 것이며, 다른 알고리즘을 사용해도 무방하다.Smart terminal 100 is basically capable of voice or data communication through the base station 11 to communicate with the wireless network (10). In addition, the smart terminal 100 can take a picture according to the present invention, can generate a three-dimensional image using the photographed picture. At this time, only the face is extracted from the captured picture. In this case, a method of extracting a face from the smart terminal 100 may use a 'Haar Face Detecting Algorithm'. In the present invention, the bottom detection algorithm is illustrated as an example, and other algorithms may be used.

이처럼 사진에서 얼굴이 추출되면, 스마트 단말(100)은 추출된 얼굴 데이터를 3차원 얼굴 데이터로 변환한다. 3차원 얼굴 데이터로의 변환은 예를 들어 CCA(Collaborative Construction Algorithm) 변환 알고리즘을 사용할 수 있다. 그 외에 다른 알고리즘을 사용해도 무방하나 스마트 단말(100)의 동작 속도 등을 고려해 스마트 단말(100)에서 빠른 속도로 처리가 가능한 알고리즘을 사용하는 것이 바람직하다.As such, when the face is extracted from the picture, the smart terminal 100 converts the extracted face data into three-dimensional face data. The transformation into 3D face data may use, for example, a Collaborative Construction Algorithm (CCA) transformation algorithm. In addition, other algorithms may be used, but in consideration of the operation speed of the smart terminal 100, it is preferable to use an algorithm that can be processed at a high speed in the smart terminal 100.

이러한 과정을 통해 스마트 단말(100)에서 생성된 3차원 얼굴 데이터는 본 발명에 따라 소정의 통신 방식을 통해 로봇장치(200)로 전송된다. 여기서 통신 방식은 무선과 유선의 방식 중 어느 것을 선택해도 무방하다. 예를 들어 무선 통신을 사용하는 경우라면 현재 널리 사용되고 있는 와이파이(Wi-Fi) 방식 또는 브루투스(Bluetooth) 방식 등 다양한 방식 중 하나의 방식을 사용할 수 있다. 또한 유선의 경우에도 근거리 통신 또는 직접 연결하기 위한 케이블 통신 등 다양한 방법을 이용할 수 있다.Through this process, the three-dimensional face data generated by the smart terminal 100 is transmitted to the robot device 200 through a predetermined communication method according to the present invention. The communication method may be any of wireless and wired methods. For example, when using wireless communication, one of various methods, such as Wi-Fi or Bluetooth, which is widely used, may be used. In the case of a wired line, various methods such as short range communication or cable communication for direct connection may be used.

이처럼 스마트 단말(100)에서 생성된 데이터가 로봇장치(200)로 전송되면, 로봇장치(200)는 그 수신된 데이터를 디스플레이 표시한다. 스마트 단말(100)에서 텍스트 또는 음성을 입력하는 경우 텍스트를 미리 저장된 음성 형식으로 또는 사용자의 음성을 그대로 또는 특정한 형식에 따라 변환하여 로봇장치(200)로 제공할 수 있다. 그러면 로봇장치(200)는 이 데이터를 수신하여 스피커를 통해 사용자에게 제공한다.As such, when the data generated by the smart terminal 100 is transmitted to the robot device 200, the robot device 200 displays and displays the received data. When the text or voice is input in the smart terminal 100, the text may be converted into a pre-stored voice format or the user's voice may be converted as it is or according to a specific format to the robot apparatus 200. The robot device 200 then receives this data and provides it to the user through the speaker.

또한 스마트 단말(100)은 사용자가 스마트 단말(100)을 움직이는 동작을 인지하여 이에 대한 모션 정보를 얼굴의 움직임 영상으로 변환하여 로봇장치(200)로 제공할 수 있다. 그러면 로봇장치(200)는 스마트 단말(100)에서 제공된 얼굴의 움직임 영상 정보를 수신하여 모니터 등의 표시 장치를 통해 얼굴의 움직임 등을 표시한다. 이에 대한 구체적인 내용은 후술되는 도면을 참조하여 더 상세히 살펴보기로 한다.
In addition, the smart terminal 100 may recognize the motion of the user moving the smart terminal 100 and convert the motion information thereof into a motion image of the face to provide the robot device 200. Then, the robot device 200 receives the motion image information of the face provided from the smart terminal 100 and displays the movement of the face through a display device such as a monitor. Details thereof will be described in more detail with reference to the accompanying drawings.

[도 2]는 본 발명의 실시예에 따른 스마트 단말의 기능적 내부 블록 구성도이다. 이하 [도 2]를 참조하여 본 발명에 따른 스마트 단말의 블록 구성 및 동작에 대하여 살펴보기로 한다.2 is a functional internal block diagram of a smart terminal according to an embodiment of the present invention. Hereinafter, a block configuration and operation of a smart terminal according to the present invention will be described with reference to FIG. 2.

본 발명에 따른 스마트 단말은 제 1 통신부(111)와 제 2 통신부(112)를 갖는 무선부(110)를 포함한다. 제 1 통신부(111)는 이동 단말로 동작할 경우 기지국(11)을 통해 무선망(10)으로 음성 또는 데이터를 송수신하기 위한 통신부이며, 제 2 통신부(112)는 본 발명에 따라 로봇장치와 통신하기 위한 통신부이다. [도 2]에서는 설명의 편의를 위해 제 2 통신부(112)가 무선 통신을 수행하는 것으로 가정하여 무선부에 포함되는 것으로 도시하였다.The smart terminal according to the present invention includes a wireless unit 110 having a first communication unit 111 and a second communication unit 112. The first communication unit 111 is a communication unit for transmitting and receiving voice or data to the wireless network 10 through the base station 11 when operating as a mobile terminal, the second communication unit 112 communicates with the robot device according to the present invention Communication unit for In FIG. 2, for convenience of description, it is assumed that the second communication unit 112 performs wireless communication.

모뎀부(120)는 제어부(130) 또는 스피커(SPK)로부터 수신된 전기적 음성 신호를 무선부(110)에 포함된 제 1 통신부(111) 또는 제 2 통신부(112)로 제공할 데이터를 부호화 및 변조하고, 그 수신된 데이터를 복조 및 복호화한 후 제어부(130) 또는 마이크(MIC)로 제공한다.The modem unit 120 encodes data to provide an electrical voice signal received from the control unit 130 or the speaker SPK to the first communication unit 111 or the second communication unit 112 included in the wireless unit 110. It modulates and demodulates and decodes the received data and provides the same to the controller 130 or the microphone (MIC).

제어부(130)는 스마트 단말(100)의 전반적인 동작을 제어하는 구성으로서, 특히 본 발명에 따라 로봇장치로 제공할 사진 촬영의 제어 및 촬영된 사진으로부터 얼굴을 추출하고, 그 추출된 얼굴 데이터를 3차원 데이터로 가공하는 제어를 수행한다. 이에 더하여 제어부(130)는 움직임이 감지될 시 움직임에 대응하여 3차원 영상이 움직이도록 변환한 후 이를 로봇장치로 제공하도록 모뎀부(120) 및 무선부(110)를 제어한다.The control unit 130 is a configuration for controlling the overall operation of the smart terminal 100, in particular, the control of the photographing to be provided to the robot device according to the present invention and extract the face from the photographed picture, and the extracted face data 3 Perform control to dimensional data. In addition, the controller 130 controls the modem unit 120 and the wireless unit 110 to convert the 3D image to move in response to the movement when the movement is detected and to provide the same to the robot apparatus.

또한 제어부(130)는 음성이 등이 입력되면, 미리 결정된 방식으로 음성을 변환하거나 또는 음성을 그대로 로봇장치로 전송하도록 모뎀부(120) 및 무선부(110)를 제어한다. 이때, 3차원 영상의 입 모양 또한 음성에 맞춰 움직이도록 영상 정보를 변환하여 로봇장치로 전송한다.In addition, when a voice is input, the controller 130 controls the modem unit 120 and the wireless unit 110 to convert the voice in a predetermined manner or to transmit the voice to the robot apparatus as it is. At this time, the shape of the mouth of the three-dimensional image is also converted to move the image information so as to transmit the robot device.

또한 제어부(130)는 텍스트가 입력될 경우 텍스트를 미리 결정된 형태의 음성 데이터로 가공하고, 이를 로봇장치로 전송하도록 모뎀부(120) 및 무선부(110)를 제어한다. 이때에도 3차원 영상의 입 모양 또한 음성에 맞춰 움직이도록 영상 정보를 변환하여 로봇장치로 전송한다.In addition, when the text is input, the controller 130 processes the text into voice data having a predetermined form, and controls the modem unit 120 and the wireless unit 110 to transmit the text to the robot device. At this time, the shape of the mouth of the 3D image is also converted to move the image information so as to move to the robot device.

이상의 동작들은 스마트 단말의 제어부(130)에서 이루어질 수도 있고, 로봇장치(200)에서 이루어질 수도 있다. 다만, 움직임 정보만은 스마트 단말(100)에서 제공해야만 한다. 이하의 설명에서는 설명의 편의를 위해 로봇장치(200)에서는 단순히 데이터를 수신하여 처리하는 형태로만 가정하여 설명하기로 한다. 하지만, 스마트 단말에서 수행되는 동작들 중 일부는 로봇장치(200)에서 이루어지도록 구성할 수도 있음에 유의해야 한다.The above operations may be performed by the controller 130 of the smart terminal or may be performed by the robot device 200. However, only motion information should be provided by the smart terminal 100. In the following description, it is assumed that the robot apparatus 200 merely assumes a form for receiving and processing data for convenience of description. However, it should be noted that some of the operations performed in the smart terminal may be configured to be performed in the robot device 200.

운동 감지부(140)는 예컨대 지자기 센서나 회전 감지 센서 등을 활용하여 구성할 수 있으며, 사용자가 스마트 단말(100)을 기울이거나 회전시키는 경우에 이와 같은 스마트 단말(100)의 운동 형태를 감지하며, 그에 따라 모션감지 신호를 생성하여 제어부(130)로 제공한다.The motion detection unit 140 may be configured using, for example, a geomagnetic sensor or a rotation detection sensor, and detects the motion form of the smart terminal 100 when the user tilts or rotates the smart terminal 100. In accordance with this, a motion detection signal is generated and provided to the controller 130.

메모리부(150)는 스마트 단말의 제어를 위한 프로그램들과 사용자가 저장하는 각종 데이터를 저장하며, 특히 본 발명에 따라 촬영된 사진으로부터 3차원 영상을 획득하고, 이를 로봇장치로 전송하기 위한 제어를 위한 스마트 단말의 각종 데이터를 저장한다.The memory unit 150 stores programs for controlling the smart terminal and various data stored by the user. In particular, the memory unit 150 controls to acquire a 3D image from a photograph taken according to the present invention and transmit the same to a robot device. It stores various data of the smart terminal for.

카메라부(160)는 카메라 렌즈와 렌즈를 통해 조사되는 광으로부터 사진 데이터를 추출하기 위한 감광센서 및 센서로부터 추출된 정보를 사진 또는 영상 정보로 변환하기 위한 구성 및 렌즈의 구동을 위한 모터 등을 포함할 수 있다. 이러한 카메라부(160)의 구성은 널리 알려진 방식들을 이용할 수 있으므로 이에 대한 자세한 설명은 생략하기로 한다.The camera unit 160 includes a camera lens and a photosensitive sensor for extracting photo data from light emitted through the lens, a configuration for converting information extracted from the sensor into photo or image information, a motor for driving the lens, and the like. can do. Since the configuration of the camera unit 160 may use well-known methods, a detailed description thereof will be omitted.

화면 제공부(170)는 스마트 단말에서 촬영된 영상 및 각종 아이콘 등을 표시하기 위한 부분으로 LCD 등 다양한 형태로 구성할 수 있다. 또한 터치 인식부(180)는 화면 제공부(170)에서 제공된 아이콘이 선택되는지를 검사하여 사용자의 선택이 있는 경우 이를 제어부(130)로 제공한다.The screen providing unit 170 is a part for displaying images and various icons photographed by a smart terminal, and may be configured in various forms such as an LCD. In addition, the touch recognition unit 180 checks whether an icon provided by the screen providing unit 170 is selected and provides it to the controller 130 when a user's selection is made.

이 외에도 스마트 단말에는 각종 키(key) 또는 다른 장치와 연결하기 위한 연결 커넥터 등이 포함될 수 있으나, 본 발명과 무관하므로 더 설명하지 않기로 한다.
In addition, the smart terminal may include a connection connector for connecting with various keys or other devices, but will not be described further since it is not related to the present invention.

[도 3]은 본 발명의 기술적 사상이 적용되는 로봇장치(200)의 기능 블록 구성도이다. 이하 [도 3]을 참조하여 로봇장치(200)의 기능 블록과 그 동작에 대하여 살펴보기로 한다.3 is a functional block diagram of a robot device 200 to which the technical idea of the present invention is applied. Hereinafter, a functional block and its operation of the robot apparatus 200 will be described with reference to FIG. 3.

로봇장치(200)는 스마트 단말(100)과 통신하기 위한 통신부(210)와 로봇장치의 동작을 제어하기 위한 제어부(220)와 영상을 제공하기 위한 영상 제공부(230) 및 음향을 제공하기 위한 음향 제공부(240)를 포함한다.The robot device 200 is provided with a communication unit 210 for communicating with the smart terminal 100, a controller 220 for controlling an operation of the robot device, an image providing unit 230 for providing an image, and a sound for providing an image. The sound providing unit 240 is included.

통신부(210)는 스마트 단말(100)과 데이터 통신을 수행하기 위한 장치로 무선 또는 유선의 방식 중 어느 것을 선택해도 무방하다. 예를 들어 무선 통신을 사용하는 경우 이동통신망을 직접 이용할 수도 있고, 널리 사용되고 있는 와이파이 방식 또는 브루투스 방식 등 다양한 방식 중 하나의 방식을 사용할 수 있다. 또한 유선의 경우에도 근거리 통신 또는 직접 연결하기 위한 케이블 통신 등 다양한 방법을 이용할 수 있다.The communication unit 210 may select either a wireless or wired method as a device for performing data communication with the smart terminal 100. For example, when using wireless communication, the mobile communication network may be used directly, or one of various methods such as Wi-Fi or Brutus, which are widely used, may be used. In the case of a wired line, various methods such as short range communication or cable communication for direct connection may be used.

통신부(210)는 어떠한 방식으로든 스마트 단말(100)으로부터 데이터가 수신되면 이를 제어부(220)로 제공한다.The communication unit 210 provides the control unit 220 when data is received from the smart terminal 100 in any manner.

제어부(220)는 통신부(210)에서 수신된 정보를 토대로 영상 데이터인 경우 영상 제공부(230)로 3차원 영상을 출력하여 사용자에게 보여질 수 있도록 제어하며, 음성 데이터인 경우 음향 제공부(240)로 출력하여 사용자가 청취할 수 있도록 제어한다. 또한 제어부(220)는 스마트 단말(100)과 통신이 요청되는 경우 통신부(210)를 제어하여 소정의 채널을 설정하고, 설정된 채널을 통해 데이터의 송수신을 제어한다.The control unit 220 controls to be displayed to the user by outputting the three-dimensional image to the image providing unit 230 in the case of the image data based on the information received from the communication unit 210, and in the case of voice data sound providing unit 240 Control to let the user listen. In addition, when the communication with the smart terminal 100 is requested, the control unit 220 controls the communication unit 210 to set a predetermined channel, and controls the transmission and reception of data through the set channel.

영상 제공부(230)는 모니터 또는 LCD 또는 LED 등 다양한 형태로 구성될 수 있으며, 3차원 영상을 표시할 수 있으면 족하다. 이러한 영상 제공부(230)는 제어부(220)로부터 제공되는 영상 데이터를 사용자가 볼 수 있도록 디스플레이한다. 또한 음향 제공부(240)는 스피커로 구성할 수 있으며, 제어부(220)로부터 출력되는 음성 또는 음향 데이터를 가청음으로 변환하여 출력한다.
The image providing unit 230 may be configured in various forms such as a monitor, LCD, or LED, and may be sufficient to display a three-dimensional image. The image providing unit 230 displays the image data provided from the control unit 220 for the user to see. In addition, the sound providing unit 240 may be configured as a speaker, and converts the voice or sound data output from the control unit 220 into an audible sound and outputs it.

[도 4]는 본 발명의 바람직한 실시예에 따라 스마트 단말에서 로봇장치로 3차원 영상을 제공하기 위한 제어 흐름도이다. 이하 [도 4]를 참조하여 본 발명의 실시예에 따라 스마트 단말에서 로봇장치로 3차원 영상 및 음성을 제공하기 위한 과정을 상세히 살펴보기로 하자.4 is a control flowchart for providing a 3D image from the smart terminal to the robot device according to an embodiment of the present invention. Hereinafter, a process for providing 3D video and audio from a smart terminal to a robot device according to an embodiment of the present invention will be described in detail with reference to FIG. 4.

제어부(130)는 S400단계에서 대기상태를 유지한다. 여기서 대기상태란, 사용자가 스마트 단말의 기능 중 하나의 동작을 요구하거나 또는 무선 호를 대기하는 상태를 의미한다. 제어부(130)는 S402단계로 진행하면, 사용자가 로봇장치(200)와 통신을 설정하기를 원하는가를 검사한다. 만일 사용자가 로봇장치(200)와 통신을 원하는 경우 제어부(130)는 S404단계로 진행하고, 그렇지 않은 경우 S400단계의 대기상태를 계속 유지한다. [도 4]는 본 발명에 따라 로봇장치(200)와 통신을 위한 과정을 설명하기 위한 제어 흐름도이므로 다른 사용자의 요청 또는 호의 수신에 대해서는 고려하지 않기로 한다.The controller 130 maintains the standby state in step S400. Here, the standby state refers to a state in which the user requests the operation of one of the functions of the smart terminal or waits for a wireless call. When the controller 130 proceeds to step S402, it is checked whether the user wants to establish communication with the robot device 200. If the user wants to communicate with the robot device 200, the controller 130 proceeds to step S404, otherwise it continues to maintain the standby state of step S400. 4 is a control flowchart for explaining a process for communicating with the robot apparatus 200 according to the present invention, and therefore, the request or call reception of another user will not be considered.

로봇장치(200)와 통신 설정이 요구되어 S404단계로 진행하면, 제어부(130)는 무선부(110)의 제 2 통신부(112)를 제어하여 로봇장치(200)와 채널을 설정한다. 채널 설정 과정은 후술되는 410단계 이후에 설정이 이루어질 수도 있다. 즉, 이처럼 채널 설정 과정은 스마트 단말의 배터리 사용 시간 등을 고려하여 프로그램 제작 단계에서 다른 단계로 이동시킬 수도 있고, 사용자의 선택에 따라 시점을 변경할 수도 있음에 유의해야 한다.When the communication setting with the robot device 200 is required and the process proceeds to step S404, the controller 130 controls the second communication unit 112 of the wireless unit 110 to establish a channel with the robot device 200. The channel setting process may be set after step 410 described later. That is, it should be noted that the channel setting process may be moved to another step in the program production step in consideration of the battery usage time of the smart terminal, or the viewpoint may be changed according to the user's selection.

이후 제어부(130)는 S406단계로 진행하여 카메라부(160)를 통해 사용자가 원하는 영상을 사진으로 촬영하고, 촬영된 사진에서 얼굴 데이터를 추출한 후 이를 3D 데이터로 변환한다. 앞서 설명한 바와 같이 사용자가 촬영한 사진으로부터 얼굴 데이터를 추출하는 방법은 하 페이스 검출 알고리즘을 사용할 수 있으며, 추출된 얼굴 데이터를 3차원 데이터로 변환하는 것은 CCA 변환 알고리즘을 사용할 수 있다.Thereafter, the controller 130 proceeds to step S406 and takes a picture of the image desired by the user through the camera unit 160, extracts face data from the captured picture, and converts it to 3D data. As described above, a method of extracting face data from a picture taken by a user may use a face detection algorithm, and converting the extracted face data into 3D data may use a CCA conversion algorithm.

이후 제어부(130)는 S408단계로 진행하여 촬영된 이미지와 3D 이미지 및 선택 아이콘을 화면 제공부(170)를 제어하여 표시한다. 이를 [도 5a]를 참조하여 살펴보기로 한다.
After that, the controller 130 proceeds to step S408 and displays the captured image, the 3D image, and the selection icon by controlling the screen providing unit 170. This will be described with reference to [FIG. 5A].

[도 5a]는 본 발명의 일 실시예에 따라 스마트 단말(100)의 화면 제공부(170)에 그 촬영된 사진과 3차원 영상 및 사용자의 선택 목록 아이콘을 도시한 예시도이다.5A is an exemplary diagram illustrating a photographed picture, a 3D image, and a user's selection list icon on the screen providing unit 170 of the smart terminal 100 according to an embodiment of the present invention.

[도 5a]에 도시한 바와 같이 스마트 단말의 화면 제공부(170)에는 카메라를 통해 촬영한 사진(500)을 표시하는 영역, 그 촬영된 사진으로부터 3차원 영상으로 가공한 영상 데이터(510) 영역, 사용자가 선택하기 위한 아이콘 영역들(520, 530, 540)을 포함할 수 있다. 또한 이러한 정보들을 한 번에 모두 표시할 수 없는 경우 스크롤 바를 좌측 또는 우측에 구비하도록 하여 화면을 스크롤시켜 표시할 수도 있다. 한편, 본 발명에서 활용하는 얼굴 사진은 카메라를 통해 스마트폰(100)에서 촬영한 사진에 한정되지 않으며, 인터넷을 통해 외부로부터 제공된 사진(예: 유명인사, 만화캐릭터, 동물)도 메모리에 저장해두었다고 활용 가능한 것으로 해석되어야 한다.As shown in FIG. 5A, the screen providing unit 170 of the smart terminal displays an area for displaying a picture 500 taken through a camera, and an area for image data 510 processed into a 3D image from the captured picture. And icon areas 520, 530, and 540 for the user to select. In addition, when all of the information cannot be displayed at a time, a scroll bar may be provided on the left or right side to scroll and display the screen. Meanwhile, the face picture utilized in the present invention is not limited to the picture taken by the smartphone 100 through the camera, and the picture provided from the outside via the Internet (eg, celebrities, cartoon characters, animals) is also stored in the memory. It should be construed as available.

그러면 촬영된 사진(500)으로부터 3차원 영상으로 가공한 영상 데이터(510)이 생성되는 과정은 첨부된 [도 5b]와 같은 과정을 통해 3차원 영상으로 구성할 수 있다.Then, the process of generating the image data 510 processed into a 3D image from the photographed picture 500 may be configured as a 3D image through the process as shown in FIG. 5B.

[도 5b]는 촬영 이미지로부터 3차원 이미지를 생성하는 과정을 도시한 도면이다. 이처럼 촬영되거나 외부로부터 제공된 사진의 얼굴 데이터로부터 3차원 데이터로 가공하기 위한 방법들은 이미 알려진 기술들이므로 여기서는 상세히 설명하지는 않기로 한다.5B is a diagram illustrating a process of generating a 3D image from a captured image. As described above, methods for processing 3D data from face data of a photograph taken or provided from the outside are already known techniques and thus will not be described in detail herein.

다시 [도 5a]를 참조하면, 또한 [도 5a]는 사용자가 촬영된 정보와 촬영된 정보를 토대로 3차원 영상으로 가공한 데이터를 검토한 후 재촬영을 수행할 것인지 또는 촬영된 영상으로 생성된 3차원 영상을 로봇장치(200)로 전송할 것인지 또는 로봇장치(200)와 통신 자체를 취소할 것인지를 결정하기 위한 아이콘들(520, 530, 540)을 함께 표시하고 있다. 따라서 이하의 설명에서는 위의 아이콘들 중 하나가 선택되는 경우를 가정하여 설명하기로 한다.Referring again to FIG. 5A, FIG. 5A also illustrates whether the user should re-photograph after reviewing the processed data based on the photographed information and the photographed information, or whether the photographed image is generated. Icons 520, 530, and 540 for determining whether to transmit the 3D image to the robot apparatus 200 or cancel the communication itself with the robot apparatus 200 are displayed together. Therefore, in the following description, it is assumed that one of the above icons is selected.

제어부(130)는 S408단계를 수행하면서 사용자가 이들의 아이콘들 중 하나를 선택하는지를 검사한다. 즉, 제어부(130)는 S410단계에서 로봇장치(200)로 3차원 이미지를 전송하기 위한 아이콘(530)을 선택하였는지 검사한다. 만일 S410단계의 검사결과 사용자가 3차원 이미지를 로봇장치(200)로 전송하기 위한 아이콘(530)을 선택한 경우 제어부(130)는 S420단계로 진행한다.The controller 130 checks whether the user selects one of these icons while performing operation S408. That is, the controller 130 checks whether the icon 530 for transmitting the 3D image to the robot device 200 is selected in step S410. If the user selects an icon 530 for transmitting the 3D image to the robot device 200, the controller 130 proceeds to step S420.

반면에 S410단계의 검사결과 사용자가 로봇장치(200)로 3차원 이미지를 전송하는 아이콘(530)을 선택하지 않은 경우라면 제어부(130)는 S412단계로 진행하여 화면 제공부(170)에서 취소 아이콘(540)이 선택되었는가를 검사한다. S412단계의 검사결과 화면 제공부(170)에서 취소 아이콘(540)이 선택된 경우에는 제어부(130)는 그간의 모든 과정을 종료한다. 이때 채널이 설정된 경우라면 그 설정된 채널도 해제한다.On the other hand, if the user checks in step S410 that the user does not select the icon 530 for transmitting the 3D image to the robot device 200, the control unit 130 proceeds to step S412 and the cancel icon in the screen providing unit 170. Check if 540 has been selected. When the cancel icon 540 is selected in the test result screen providing unit 170 of step S412, the controller 130 ends all processes therefor. If the channel is set at this time, the set channel is also released.

또한 S412단계의 검사결과 사용자가 취소를 선택하지 않은 경우 제어부(130)는 S414단계로 진행하여 화면 제공부(170)에 재촬영 아이콘(520)이 선택되었는가를 검사한다. S414단계의 검사결과 재촬영이 선택된 경우 제어부(130)는 S406단계로 진행하고, 그렇지 않은 경우 제어부(130)는 S408단계로 진행한다.In addition, if the user does not select cancel as a result of the check in step S412, the controller 130 proceeds to step S414 to check whether the re-shoot icon 520 is selected in the screen providing unit 170. If the re-photographing of the test result of step S414 is selected, the control unit 130 proceeds to step S406, otherwise the control unit 130 proceeds to step S408.

그러면 S410단계에서 S420단계로 진행하는 경우를 먼저 살펴보기로 한다. S420단계로 진행하면, 제어부(130)는 S420단계에서 설정된 채널을 통해 3차원 이미지를 전송한다. 만일 S404단계가 앞에서 수행되지 않았다면, S410단계 이후 로봇장치(200)와 채널을 설정하도록 구성할 수 있다. 이처럼 S420단계에서 설정된 채널을 통해 3차원 이미지를 전송한 후 제어부(130)는 S430단계로 진행하여 표시모드를 제어한다. 표시모드에서는 3차원 데이터를 표시하고, 사용자의 음성을 직접 또는 가공해서 로봇장치(200)로 전송하거나 또는 사용자가 입력한 텍스트를 이용하여 음성 신호를 생성해 전송하도록 구성될 수 있으며, 이때 3차원 영상의 입모양 또한 음성에 대응하여 움직이도록 가공해 전송하도록 구성할 수 있다. 뿐만 아니라 사용자가 스마트 단말의 회전시키거나 기울이는 등의 동작을 수행하는 경우 이에 대한 움직임 정보를 취합하여 영상 데이터로 가공한 후 이를 로봇장치(200)로 제공할 수도 있다. 이에 대한 좀 더 상세한 내용은 후술되는 [도 6]을 참조하여 더 살펴보기로 한다.Then, the case proceeds from step S410 to step S420 will be described first. In step S420, the controller 130 transmits the 3D image through the channel set in step S420. If step S404 has not been performed before, step S410 may be configured to set a channel with the robot apparatus 200. In this way, after transmitting the 3D image through the channel set in step S420, the controller 130 proceeds to step S430 to control the display mode. In the display mode, three-dimensional data may be displayed, and the voice of the user may be directly or processed to be transmitted to the robot apparatus 200, or the voice signal may be generated and transmitted using the text input by the user. The image of the mouth can also be configured to be processed to transmit in response to voice. In addition, when the user performs an operation such as rotating or tilting the smart terminal, motion information may be collected and processed into image data and then provided to the robot device 200. More details on this will be described with reference to FIG. 6 to be described later.

이처럼 표시모드가 종료되면, 본 발명에 따른 로봇장치(200)로 3차원 영상 및 음성 또는 음향 신호를 제공하는 과정이 종료된다.As such, when the display mode ends, the process of providing a 3D image and an audio or audio signal to the robot device 200 according to the present invention ends.

한편, S414단계에서 재촬영이 선택된 경우 제어부(130)는 S406단계로 진행하여 앞서 설명한 406단계 이후 과정을 반복한다.
On the other hand, if re-shooting is selected in step S414, the controller 130 proceeds to step S406 and repeats the process after step 406 described above.

[도 6]은 본 발명의 실시예에 따라 스마트 단말에서 로봇장치(200)로 3차원 영상을 제공할 시 영상 표시모드의 제어 흐름도이다. 이하 [도 6]을 참조하여 본 발명에 따른 영상 표시모드를 상세히 살펴보기로 한다.6 is a control flowchart of an image display mode when providing a 3D image from the smart terminal to the robot device 200 according to an embodiment of the present invention. Hereinafter, the image display mode according to the present invention will be described in detail with reference to FIG. 6.

S600단계는 스마트 단말에서 로봇장치(200)로 3차원 영상을 제공한 후 제공한 영상을 유지하는 상태이다. 이처럼 영상을 유지하는 상태에서 제어부(130)는 S602단계로 진행하여 문자 또는 음성이 입력되는가를 검사한다. 만일 문자 또는 음성이 입력되는 경우 제어부(130)는 S604단계로 진행하고, 그렇지 않은 경우 S610단계로 진행한다.Step S600 is a state of maintaining the provided image after providing a three-dimensional image from the smart terminal to the robot device 200. In this state of maintaining the image, the control unit 130 proceeds to step S602 to check whether a text or voice is input. If a text or voice is input, the controller 130 proceeds to step S604, and if not, proceeds to step S610.

먼저 S604단계로 진행하는 경우를 살펴보기로 한다. S604단계로 진행하는 경우는 2가지 경우가 있을 수 있다. 음성이 입력된 경우와 문자가 입력된 경우이다. 먼저 문자가 입력되면 제어부(130)는 S604단계에서 문자에 해당하는 음성 정보를 메모리부(150)로부터 읽어와 전송할 음성 정보를 생성한다. 이때, 음성 정보는 염소 울음소리 또는 아기 울음소리 등과 같은 음향 정보가 될 수도 있고, 이를 포함할 수도 있다. 또한 제어부(130)는 S604단계에서 생성된 음성 정보에 대응하여 3차원 영상 정보 중 입술 또는 얼굴 근육의 움직임을 생성한다. 그런 후 제어부(130)는 S606단계로 진행하여 변환된 음성 정보 및 3차원 움직임 정보를 로봇장치(200)로 전송한다.First, the case proceeds to step S604. When proceeding to step S604 may be two cases. This is the case when a voice is input and a character is input. First, when a character is input, the controller 130 generates voice information to be transmitted by reading voice information corresponding to the character from the memory unit 150 in step S604. In this case, the voice information may be sound information such as goat crying or baby crying or the like. In addition, the controller 130 generates movement of the lips or face muscles in the 3D image information in response to the voice information generated in step S604. Thereafter, the controller 130 proceeds to step S606 to transmit the converted voice information and the 3D motion information to the robot device 200.

다음으로 음성이 입력된 경우가 있다. 음성이 입력되면, 음성을 그대로 전송할 수도 있고, 특별한 기법에 의거해 다른 음성으로 가공할 수도 있다. 만일 음성을 그대로 전송하는 경우라면, 제어부(130)는 마이크(MIC)로부터 입력된 전기적 음성 신호를 모뎀부(120)를 제어하여 변조한다.또한 이때, 제어부(130)는 S604단계에서 3차원 영상 데이터의 입술 또는 얼굴 근육의 움직임을 음성 정보에 대응하여 생성한다. 이후 제어부(130)는 S606단계에서 생성된 음성 정보와 움직임 정보를 제 2 통신부(112)를 통해 로봇장치(200)로 전송한다.Next, voice may be input. When a voice is input, the voice may be transmitted as it is, or may be processed into another voice according to a special technique. If the voice is transmitted as it is, the control unit 130 modulates the electric voice signal input from the microphone (MIC) by controlling the modem unit 120. In this case, the control unit 130 in step S604 three-dimensional image The movement of the lips or facial muscles of the data is generated corresponding to the voice information. Thereafter, the controller 130 transmits the voice information and the motion information generated in operation S606 to the robot apparatus 200 through the second communication unit 112.

반면에 만일 음성을 그대로 전송하지 않고, 가공해서 전송하는 경우라면, 제어부(130)는 마이크(MIC)로부터 입력된 전기적 음성 신호를 미리 결정된 음성 변환 알고리즘을 이용하여 음성 신호를 재가공한다. 여기서 음성 변환을 위한 알고리즘은 다양한 기법이 있을 수 있으며, 가령 음성을 1.5배속으로 빠른 속도로 변환하거나 1/2의 속도로 느리게 변환하는 등 다양한 방법이 있을 수 있다. 본 발명에서는 음성을 변환하는 방법에 대하여는 특별한 제약을 두지 않는다.On the other hand, if the voice is not transmitted, but is processed and transmitted, the controller 130 reprocesses the voice signal using a predetermined voice conversion algorithm from the electric voice signal input from the microphone MIC. Here, the algorithm for speech conversion may have a variety of techniques, for example, there may be a variety of methods such as converting the voice at a high speed of 1.5 times faster or slower at a speed of 1/2. In the present invention, there is no particular limitation on the method of voice conversion.

이처럼 음성 신호를 재가공한 후 제어부(130)는 모뎀부(120)를 제어하여 재가공된 음성 신호를 변조한다. 또한 이때, 제어부(130)는 S604단계에서 3차원 영상 데이터의 입술 또는 얼굴 근육의 움직임을 음성 정보에 대응하여 생성한다. 이후 제어부(130)는 S606단계에서 생성된 음성 정보와 움직임 정보를 제 2 통신부(112)를 통해 로봇장치(200)로 전송한다.After reprocessing the voice signal as described above, the controller 130 controls the modem unit 120 to modulate the reprocessed voice signal. In this case, the controller 130 generates movement of the lips or facial muscles of the 3D image data corresponding to the voice information in step S604. Thereafter, the controller 130 transmits the voice information and the motion information generated in operation S606 to the robot apparatus 200 through the second communication unit 112.

다른 한편, S610단계로 진행하면, 제어부(130)는 움직임이 감지되었는가를 검사한다. 즉, 운동 감지부(140)로부터 회전 또는 기울임 정보가 수신되었는가를 검사하는 것이다. 이처럼 회전 또는 기울임 정보가 수신되면 제어부(130)는 S612단계로 진행하여 움직임에 따른 3차원 데이터를 생성한다. 그러면 여기서 [도 7]을 참조하여 스마트 단말의 움직임에 대해 살펴보기로 한다.
On the other hand, when proceeding to step S610, the controller 130 checks whether the movement is detected. That is, it is to check whether the rotation or tilt information is received from the motion detection unit 140. When the rotation or tilt information is received as described above, the control unit 130 proceeds to step S612 to generate three-dimensional data according to the movement. Next, the motion of the smart terminal will be described with reference to FIG. 7.

[도 7]은 본 발명에 따라 스마트 단말의 움직임에 따라 3차원 영상의 움직임을 검출하는 과정을 설명하기 위한 예시도이다.7 is an exemplary view for explaining a process of detecting the movement of the 3D image according to the movement of the smart terminal according to the present invention.

[도 7]에 도시한 바와 같이 스마트 단말을 참조부호 700과 같이 앞쪽으로 기울이거나 뒤쪽으로 눕힐 수 있다. 또한 참조부호 702와 같이 스마트 단말을 좌측으로 움직이거나 또는 우측으로 움직일 수도 있다. 운동 감지부(140)는 이러한 움직임을 검출하여 제어부(130)로 제공한다. 즉, 운동 감지부(140)는 참조부호 700과 같이 스마트 단말의 기울임 정도와 참조부호 702와 같이 좌우의 이동 정도를 감지하여 제어부(130)로 제공한다.As shown in FIG. 7, the smart terminal may be tilted forward or laid backward as shown by reference numeral 700. In addition, as shown by reference numeral 702, the smart terminal may be moved to the left or to the right. The motion detector 140 detects the motion and provides the motion to the controller 130. That is, the motion detection unit 140 detects the degree of inclination of the smart terminal and the left and right movements as shown by reference numeral 702 as shown by reference numeral 700 and provides it to the controller 130.

다시 [도 6]을 참조하면, S610단계에서의 움직임 감지는 이처럼 스마트 단말의 움직임을 감지하는 것이다. 그러면 제어부(130)는 S612단계에서 그 감지된 움직임에 대응하여 3차원 얼굴 영상에 대한 3차원 데이터를 생성한다. 예를 들어 스마트 단말을 앞쪽으로 기울이는 경우 머리쪽이 보이고, 턱쪽이 안보이도록 3차원 영상 데이터의 움직임 정보를 생성한다. 반대로 스마트 단말을 뒤쪽으로 눕히는 경우 목과 턱이 정면으로 나오고 이마가 뒤로 넘어간 상태 3차원 영상 데이터의 움직임 정보를 생성한다.Referring back to FIG. 6, the motion detection in step S610 is such that the motion of the smart terminal is detected. Then, the controller 130 generates 3D data for the 3D face image in response to the detected motion in step S612. For example, when tilting the smart terminal forward, the head information is generated and the motion information of the 3D image data is generated so that the chin side is not visible. On the contrary, when the smart terminal is laid on the back side, the neck and the jaw come out in front and the forehead is moved backward to generate motion information of the 3D image data.

또한 평면을 기준으로 스마트 단말의 좌측을 뒤로 움직이면, 제어부(130)는 생성된 3차원 얼굴의 우측 얼굴이 가려지면서 좌측 얼굴이 보이도록 3차원 영상 데이터의 움직임 정보를 생성하며, 평면을 기준으로 스마트 단말의 우측을 뒤로 움직이면, 제어부(130)는 생성된 3차원 얼굴의 좌측 얼굴이 가려지면서 우측 얼굴이 보이도록 3차원 영상 데이터의 움직임 정보를 생성한다. 반대로 스마트 단말을 평면을 기준으로 좌측을 앞으로 움직이거나 뒤로 움직일 수도 있다. 이러한 경우에도 제어부(130)는 해당 영상의 움직임 정보를 생성한다.In addition, when the left side of the smart terminal is moved backward with respect to the plane, the controller 130 generates motion information of the 3D image data such that the left face is visible while the right face of the generated 3D face is hidden, and the smart is based on the plane. When the right side of the terminal is moved backward, the controller 130 generates motion information of the 3D image data such that the left face of the generated 3D face is covered and the right face is visible. On the contrary, the smart terminal may be moved forward or backward with respect to the plane. Even in this case, the controller 130 generates motion information of the corresponding video.

이처럼 3차원 영상의 움직임 데이터가 생성되면 제어부(130)는 S614단계에서 생성된 정보를 모뎀(120) 및 제 2 통신부(112)를 제어하여 로봇장치(200)로 전송한다.When the motion data of the 3D image is generated as described above, the controller 130 controls the modem 120 and the second communication unit 112 to transmit the information generated in step S614 to the robot apparatus 200.

다른 한편 S620단계로 진행하면 제어부(130)는 종료가 선택되었는가를 검사한다. 즉, 로봇장치(200)와 통신하는 과정을 종료하기를 원하는가를 검사하는 것이다. 만일 S620단계의 검사결과 종료가 선택된 경우 제어부(130)는 S622단계로 진행하여 로봇장치(200)와 설정된 채널을 해제하고, 본 발명에 따른 루틴을 종료한다.
On the other hand, if the process proceeds to step S620, the controller 130 checks whether an end is selected. That is, it is to check whether or not you want to end the process of communicating with the robot apparatus 200. If the end of the check result of step S620 is selected, the control unit 130 proceeds to step S622 to release the channel set with the robot device 200, and ends the routine according to the present invention.

[도 8]은 본 발명에 따른 로봇장치(200)에서 3차원 데이터를 수신하여 표시하고, 음성 및 음향 신호를 수신하여 사용자에게 제공하기 위한 제어 흐름도이다. 이하 [도 8]을 참조하여 본 발명에 따른 로봇장치(200)에서 이루어지는 동작을 살펴보기로 한다.FIG. 8 is a control flowchart for receiving and displaying three-dimensional data in the robot apparatus 200 according to the present invention, and receiving and providing a voice and sound signal to a user. Hereinafter, an operation made in the robot device 200 according to the present invention will be described with reference to FIG. 8.

제어부(220)는 S800단계에서 대기상태를 유지한다. 여기서 대기상태란, 스마트 단말으로부터 또는 사용자가 특정한 명령의 입력을 기다리는 상태를 의미한다. 제어부(220)는 S802단계로 진행하면, 스마트 단말과 통신이 요구되는가를 검사한다. S802단계의 검사결과 통신이 요구되면, 제어부(220)는 S804단계로 진행하여 스마트 단말과 통신을 위한 채널을 설정하고, 설정된 채널을 유지한다. 반면에 S802단계의 검사결과 스마트 단말과 통신이 요구되지 않는 경우 S800단계로 진행한다.The control unit 220 maintains the standby state in step S800. Here, the standby state means a state waiting for a user to input a specific command or from a smart terminal. When the controller 220 proceeds to step S802, it checks whether communication with the smart terminal is required. If communication of the test result of step S802 is required, the control unit 220 proceeds to step S804 to set a channel for communication with the smart terminal, and maintains the set channel. On the contrary, if communication with the smart terminal is not required in step S802, the process proceeds to step S800.

이후 제어부(220)는 S806단계로 진행하여 스마트 단말으로부터 데이터가 수신되는가를 검사한다. 만일 스마트 단말으로부터 데이터가 수신되면 S808단계로 진행하고 그렇지 않은 경우 S804단계를 유지한다.Thereafter, the controller 220 proceeds to step S806 to check whether data is received from the smart terminal. If data is received from the smart terminal, the process proceeds to step S808, and otherwise, step S804 is maintained.

S808단계로 진행하면 제어부(220)는 스마트 단말으로부터 통신부(210)을 통해 수신된 데이터를 영상 제공부(230) 또는 음향 제공부(240)로 제공하기 위해 수신된 데이터를 가공한다. 이러한 가공은 영상과 음성의 복조 및 복호화를 포함하며, 3차원 영상을 영상 제공부(230)에 표시하기 위한 처리를 포함한다.In step S808, the control unit 220 processes the received data to provide the data received from the smart terminal through the communication unit 210 to the image providing unit 230 or the sound providing unit 240. This processing includes demodulation and decoding of video and audio, and includes processing for displaying a 3D video on the video providing unit 230.

이후 제어부(220)는 S810단계로 진행하여 추가 데이터가 수신되는가를 검사한다. 만일 S810단계의 검사결과 추가 데이터가 수신되는 경우 S812단계로 진행하여 추가 데이터를 가공하고 이를 영상 제공부(230) 또는 음향 제공부(240)에서 표시할 수 있도록 제어한다. 또한 여기서 추가 데이터란 앞서 설명한 스마트 단말의 기울임 또는 회전 등에 대한 데이터 또는 음성 데이터가 될 수 있다.Thereafter, the controller 220 proceeds to step S810 to check whether additional data is received. If additional test data is received in step S810, the process proceeds to step S812 to process the additional data and to display it in the image providing unit 230 or the sound providing unit 240. In addition, the additional data may be data or voice data on the tilt or rotation of the smart terminal described above.

즉, 3차원 영상인 경우 영상 제공부(230)를 제어하여 3차원 영상을 표시하도록 제어하는 것이며, 음성 또는 음향인 경우 음향 제공부(240)를 제어하여 음성 또는 음향을 출력하도록 제어하는 것이다.That is, in the case of a 3D image, the image providing unit 230 is controlled to display a 3D image. In the case of voice or sound, the image providing unit 240 is controlled to output a voice or sound.

한편, 추가 데이터가 수신되지 않는 경우에는 제어부(220)는 S820단계로 진행하여 채널 해제가 요구되었는가를 검사한다. 만일 S820단계의 검사결과 채널 해제가 요구된 경우에는 S822단계로 진행하여 스마트 단말과 설정된 채널을 해제하고 종료한다.On the other hand, if no additional data is received, the controller 220 proceeds to step S820 and checks whether a channel release is requested. If the channel release is requested as a result of step S820, the process proceeds to step S822 to release the channel established with the smart terminal and terminates.

반면에 S820단계의 검사결과 채널 해제가 요구되지 않은 경우 제어부(220)는 S808단계로 진행하여 데이터 표시 상태를 유지한다.On the other hand, if the channel release is not requested as a result of step S820, the controller 220 proceeds to step S808 to maintain the data display state.

그러면 음성 신호의 움직임에 따라 3차원 영상의 변화를 첨부된 [도 9]를 참조하여 살펴보기로 한다.
Then, the change of the 3D image according to the movement of the audio signal will be described with reference to [FIG. 9].

[도 9]는 본 발명에 따라 3차원 얼굴 영상에 추가적으로 음성 또는 텍스트를 이용한 음성 데이터가 제공될 때 3차원 얼굴 영상 데이터의 움직임을 설명하기 위한 예시도이다.FIG. 9 is an exemplary view for explaining the movement of 3D face image data when voice data using voice or text is provided in addition to the 3D face image according to the present invention.

[도 9]에서 참조부호 900은 3차원 얼굴 영상의 일 예이다. 이와 같은 3차원 얼굴 영상에서 음성 또는 텍스트를 이용한 음성 정보가 전달되는 경우 참조부호 902에 나타낸 입술의 모양이 변경될 수 있다. 즉, 하나의 음절을 표현할 때마다 입술이 벌어지고 다물어지는 과정과 음절의 표음 형태에 따라 입술의 모양을 변경할 수 있다. In FIG. 9, reference numeral 900 is an example of a 3D face image. When voice information using voice or text is transmitted in such a 3D face image, the shape of the lips indicated by reference numeral 902 may be changed. That is, each time a syllable is expressed, the shape of the lips may be changed according to the process of opening and closing the lips and the phonetic form of the syllable.

이처럼 변형되는 정보는 미리 저장된 정보를 이용할 수 있으며, 스마트 단말의 메모리(150)에 저장되어 있을 수도 있고, 로봇장치(200)의 메모리(도 3에는 미도시)에 저장되어 있을 수도 있고, 외부 서버장치의 메모리에 저장되어 있을 수도 있다. 또한 입술의 모양 뿐 아니라 여러 장의 사진을 이용하거나 또는 얼굴 근육의 패턴 정보 등을 더 저장하는 경우 음절에 따라 또는 음절의 표음에 따라 얼굴 근육의 변화도 표현할 수도 있다.
The deformed information may use previously stored information, may be stored in the memory 150 of the smart terminal, may be stored in the memory (not shown in FIG. 3) of the robot device 200, or may be stored in an external server. It may be stored in the memory of the device. In addition, when using not only the shape of the lips but also using a plurality of photographs or storing the pattern information of the facial muscles, the facial muscles may also be expressed according to syllables or syllables.

[도 10]은 본 발명에 따라 스마트 단말에서 로봇장치(200)로 3차원 영상과 음성을 전송하는 경우의 전체 동작을 설명하기 위한 개념도이다.10 is a conceptual diagram for explaining the overall operation when transmitting a three-dimensional image and voice from the smart terminal to the robot device 200 according to the present invention.

사용자(20)는 스마트 단말(100)을 이용하여 S1011단계에서 사진을 촬영한다. 이후 스마트 단말(100)은 촬영된 사진에서 얼굴을 추출하고, 추출된 얼굴 데이터를 이용하여 3차원 얼굴 데이터를 생성한다. 이처럼 생성된 3차원 얼굴 데이터는 로봇장치(200)로 제공되며, 로봇장치(200)는 영상 제공부(230)를 통해 참조부호 300과 같이 표시할 수 있다.The user 20 takes a picture in step S1011 using the smart terminal 100. Thereafter, the smart terminal 100 extracts a face from the taken photo and generates 3D face data using the extracted face data. The three-dimensional face data generated as described above is provided to the robot device 200, and the robot device 200 may be displayed as shown by reference numeral 300 through the image providing unit 230.

또한 사용자는 S1021단계와 같이 스마트 단말(100)을 움직임으로써 스마트 단말(100)에서 운동 감지부(140)에서 스마트 단말의 움직임을 감지하고, 이에 대한 정보 또는 움직임에 따른 3차원 움직임 영상 정보를 로봇장치(200)로 제공할 수 있다. 그러면 로봇장치(200)는 3차원 움직임 영상 정보를 수신하여 영상 제공부(230)에서 영상의 움직임을 3차원으로 표시한다.In addition, the user detects the movement of the smart terminal by the motion detection unit 140 in the smart terminal 100 by moving the smart terminal 100 as in step S1021, and the robot 3D motion image information according to the information or the movement thereof. It may be provided to the device 200. Then, the robot apparatus 200 receives the 3D motion image information and displays the motion of the image in the 3D by the image providing unit 230.

또한 사용자는 S1031단계와 같이 음성 또는 텍스트를 스마트 단말(100)에 입력할 수 있다. 음성 또는 텍스트를 입력하면, 스마트 단말(100)은 이를 미리 설정된 방식으로 가공하고, 음성에 대응하여 3차원 영상의 움직임 정보 또는 움직임에 따른 3차원 정보를 생성하여 로봇장치(200)로 제공한다. 그러면 로봇장치(200)는 이를 수신하여 영상 제공부(230)에서 3차원 움직임 형태로 표시하며, 음향 제공부(240)를 통해 수신된 음성 정보를 출력한다.In addition, the user may input voice or text into the smart terminal 100 as in step S1031. When the voice or text is input, the smart terminal 100 processes the same in a preset manner, generates the motion information of the 3D image or the 3D information according to the motion, and provides the robot device 200 in response to the voice. Then, the robot apparatus 200 receives the displayed information and displays the three-dimensional motion in the image providing unit 230 and outputs the voice information received through the sound providing unit 240.

이상과 같은 동작을 통해 스마트 단말(100)에서 로봇장치(200)와 3차원 영상 및 음성을 로봇장치(200)로 제공하고 제공된 정보를 로봇장치(200)에서 표시할 수 있다.
Through the above operation, the smart terminal 100 may provide the robot apparatus 200 and the 3D image and voice to the robot apparatus 200 and display the provided information on the robot apparatus 200.

10 : 무선망
11 : 기지국
100 : 스마트 단말
200 : 로봇장치
110 : 무선부
111 : 제 1 통신부
112 : 제 2 통신부
120 : 모뎀부
MIC : 마이크
SPK : 스피커
130 : 제어부
140 : 운동 감지부
150 : 메모리부
160 : 카메라부
170 : 화면 제공부
180 : 터치 인식부
210 : 통신부
220 : 제어부
230 : 영상 제공부
240 : 음향 제공부
10: wireless network
11: base station
100: smart terminal
200: robot device
110: wireless unit
111: first communication unit
112: second communication unit
120: modem unit
MIC: Microphone
SPK: Speaker
130:
140: motion detection unit
150:
160:
170: screen provider
180: touch recognition unit
210:
220:
230: video providing unit
240: sound providing unit

Claims (9)

네트워크로 연결된 스마트 단말(100)과 로봇장치(200)를 이용하여 3차원 디스플레이를 제공하는 방법으로서,
상기 스마트 단말이 사진 이미지로부터 얼굴 이미지를 추출하는 제 1 단계;
상기 스마트 단말에서 상기 추출된 얼굴 이미지를 이용하여 3차원 얼굴 영상을 생성하는 제 2 단계;
상기 스마트 단말이 상기 생성된 3차원 영상을 로봇장치의 얼굴 화면으로 사용할 수 있도록 외부의 로봇장치로 제공하는 제 3 단계;
상기 스마트 단말이 사용자로부터 문자 데이터를 제공받는 제 7 단계;
상기 스마트 단말이 상기 문자 데이터에 대응하는 음소 데이터를 획득하는 제 8 단계;
상기 스마트 단말이 상기 음소 데이터에 대응하여 상기 3차원 영상의 입의 움직임 정보를 생성하는 제 9 단계;
상기 스마트 단말이 상기 3차원 영상의 입 움직임 정보를 상기 로봇장치로 전송하여 상기 로봇장치가 얼굴 화면에서 상기 입 움직임 정보에 대응하여 얼굴 화면을 변경하도록 제공하는 제 10 단계;
를 포함하여 구성되는 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하기 위한 방법.
As a method for providing a three-dimensional display using the smart terminal 100 and the robot device 200 connected via a network,
A first step of extracting, by the smart terminal, a face image from a photo image;
Generating a 3D face image using the extracted face image in the smart terminal;
A third step of providing the robot device to an external robot device so that the smart terminal can use the generated 3D image as a face screen of the robot device;
A seventh step of receiving, by the smart terminal, text data from a user;
An eighth step of the smart terminal obtaining phoneme data corresponding to the text data;
A ninth step of the smart terminal generating motion information of a mouth of the 3D image corresponding to the phoneme data;
A tenth step of providing, by the smart terminal, the mouth movement information of the 3D image to the robot apparatus so that the robot apparatus changes the face screen in response to the mouth movement information on the face screen;
Method for providing a 3D image using a smart terminal and a robot device comprising a.
청구항 1에 있어서,
상기 제 1 단계는,
상기 스마트 단말의 카메라부를 이용하여 대상체의 얼굴을 촬영하는 단계;
상기 촬영된 사진 이미지로부터 얼굴 이미지를 추출하는 단계:
를 포함하여 구성되는 것을 특징으로 하는 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하기 위한 방법.
The method according to claim 1,
In the first step,
Photographing a face of an object by using a camera unit of the smart terminal;
Extracting a face image from the photographed photo image:
Method for providing a three-dimensional image using a smart terminal and a robot device comprising a.
청구항 1에 있어서,
상기 제 2 단계는 상기 추출된 얼굴 이미지에 CCA(Collaborative Construction Algorithm) 변환 알고리즘을 적용하여 상기 3차원 얼굴 영상을 생성하는 것을 특징으로 하는 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하기 위한 방법.
The method according to claim 1,
The second step is a method for providing a three-dimensional image using a smart terminal and a robot device, characterized in that for generating the three-dimensional face image by applying a Collaborative Construction Algorithm (CCA) transformation algorithm to the extracted face image. .
청구항 1에 있어서,
상기 스마트 단말의 운동 감지부를 통해 상기 스마트 단말의 모션을 검출하는 제 4 단계;
상기 스마트 단말이 상기 모션에 대응하여 상기 3차원 영상을 재생성하는 제 5 단계;
상기 스마트 단말이 상기 재생성된 3차원 영상을 로봇장치의 얼굴 화면으로 사용할 수 있도록 외부의 로봇장치로 제공하는 제 6 단계;
를 더 포함하여 구성되는 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하기 위한 방법.
The method according to claim 1,
A fourth step of detecting a motion of the smart terminal through the motion detection unit of the smart terminal;
A fifth step of the smart terminal regenerating the 3D image in response to the motion;
A sixth step of providing the external robot device so that the smart terminal can use the reproduced 3D image as a face screen of the robot device;
Method for providing a 3D image using a smart terminal and a robot device further comprises.
삭제delete 청구항 4에 있어서,
상기 스마트 단말이 사용자로부터 음성 신호를 제공받는 제 11 단계;
상기 스마트 단말이 상기 음성 신호로부터 텍스트를 인식하는 제 12 단계;
상기 인식된 텍스트에 대응하는 음소 데이터를 획득하는 제 13 단계;
상기 스마트 단말이 상기 음소 데이터에 대응하여 상기 3차원 영상의 입의 움직임 정보를 생성하는 제 14 단계;
상기 스마트 단말이 상기 3차원 영상의 입 움직임 정보를 상기 로봇장치로 전송하여 상기 로봇장치가 얼굴 화면에서 상기 입 움직임 정보에 대응하여 얼굴 화면을 변경할 수 있도록 제공하는 제 15 단계;
를 더 포함하여 구성되는 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하기 위한 방법.
The method of claim 4,
An eleventh step in which the smart terminal receives a voice signal from a user;
A twelfth step of the smart terminal recognizing text from the voice signal;
A thirteenth step of obtaining phoneme data corresponding to the recognized text;
A fourteenth step of the smart terminal generating motion information of a mouth of the 3D image in response to the phoneme data;
A fifteenth step of providing, by the smart terminal, the mouth movement information of the 3D image to the robot device so that the robot device can change the face screen in response to the mouth movement information on the face screen;
Method for providing a 3D image using a smart terminal and a robot device further comprises.
네트워크로 연결된 스마트 단말(100)과 로봇장치(200)를 이용하여 3차원 디스플레이를 제공하기 위하여 스마트 단말에 설치되며, 청구항 1 내지 청구항 4 중 어느 한 항에 따른 방법을 수행하기 위한 스마트 단말 3차원 영상제공 프로그램을 기록한 컴퓨터로 판독가능한 기록매체;
상기 프로그램이 실행되는 스마트 단말(100)과 데이터 통신을 수행하기 위한 로봇장치 통신부(210)와, 상기 로봇장치 통신부를 통해 상기 스마트 단말로부터 제공된 3차원 얼굴 영상을 디스플레이 제공하고 상기 로봇장치 통신부를 통해 상기 스마트 단말로부터 제공된 입 움직임 정보에 대응하여 상기 3차원 얼굴 영상에서 입 부분의 이미지를 변형 디스플레이하는 영상 제공부(230)와, 스마트 단말로부터 수신된 3차원 영상을 상기 영상 제공부(230)로 출력을 제어하는 로봇장치 제어부(220)를 포함하는 로봇장치(200);
을 포함하여 구성되는 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하기 위한 시스템.
It is installed in the smart terminal to provide a three-dimensional display using the smart terminal 100 and the robot device 200 connected via a network, the smart terminal three-dimensional for performing the method according to any one of claims 1 to 4. A computer-readable recording medium recording an image providing program;
The robot device communication unit 210 for performing data communication with the smart terminal 100, the program is executed, and provides a display of the three-dimensional face image provided from the smart terminal through the robot device communication unit and through the robot device communication unit The image providing unit 230 transforms and displays the image of the mouth portion in the 3D face image corresponding to the mouth movement information provided from the smart terminal, and the 3D image received from the smart terminal to the image providing unit 230. Robot device 200 including a robot device control unit 220 for controlling the output;
System for providing a three-dimensional image using a smart terminal and a robot device configured to include.
삭제delete 청구항 7에 있어서,
상기 기록매체에 기록된 스마트 단말 3차원 영상제공 프로그램은 상기 스마트 단말이 사용자로부터 음성 신호를 제공받는 제 11 단계와, 상기 스마트 단말이 상기 음성 신호로부터 텍스트를 인식하는 제 12 단계와, 상기 인식된 텍스트에 대응하는 음소 데이터를 획득하는 제 13 단계와, 상기 스마트 단말이 상기 음소 데이터에 대응하여 상기 3차원 영상의 입의 움직임 정보를 생성하는 제 14 단계와, 상기 스마트 단말이 상기 3차원 영상의 입 움직임 정보를 상기 로봇장치로 전송하여 상기 로봇장치가 얼굴 화면에서 상기 입 움직임 정보에 대응하여 얼굴 화면을 변경할 수 있도록 제공하는 제 15 단계를 더 수행하도록 구성되고,
상기 로봇장치(200)의 영상 제공부(230)는, 상기 로봇장치 통신부를 통해 상기 스마트 단말로부터 제공된 입 움직임 정보에 대응하여 상기 3차원 얼굴 영상에서 입 부분의 이미지를 변형 디스플레이하는 것을 특징으로 하는 스마트 단말과 로봇장치를 이용하여 3차원 영상을 제공하기 위한 시스템.
The method of claim 7,
The smart terminal 3D image providing program recorded on the recording medium includes the eleventh step of receiving the voice signal from the smart terminal, the twelfth step of recognizing the text from the voice signal by the smart terminal, A thirteenth step of acquiring phoneme data corresponding to text; and a fourteenth step of generating, by the smart terminal, motion information of the mouth of the 3D image in response to the phoneme data; And performing a fifteenth step of transmitting mouth movement information to the robot apparatus so that the robot apparatus can change the face screen in response to the mouth movement information on the face screen.
The image providing unit 230 of the robot device 200 is characterized in that the deformation display of the image of the mouth portion in the three-dimensional face image corresponding to the mouth movement information provided from the smart terminal through the robot device communication unit System for providing a 3D image using a smart terminal and a robot device.
KR1020120019296A 2012-02-24 2012-02-24 Method for providing 3-dimensional display by using smart terminals and robot devices, and 3-dimensional display system using the same KR101306608B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120019296A KR101306608B1 (en) 2012-02-24 2012-02-24 Method for providing 3-dimensional display by using smart terminals and robot devices, and 3-dimensional display system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120019296A KR101306608B1 (en) 2012-02-24 2012-02-24 Method for providing 3-dimensional display by using smart terminals and robot devices, and 3-dimensional display system using the same

Publications (2)

Publication Number Publication Date
KR20130097558A KR20130097558A (en) 2013-09-03
KR101306608B1 true KR101306608B1 (en) 2013-09-11

Family

ID=49449892

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120019296A KR101306608B1 (en) 2012-02-24 2012-02-24 Method for providing 3-dimensional display by using smart terminals and robot devices, and 3-dimensional display system using the same

Country Status (1)

Country Link
KR (1) KR101306608B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100064196A (en) * 2008-12-04 2010-06-14 삼성전자주식회사 Method and appratus for estimating depth, and method and apparatus for converting 2d video to 3d video
KR20100068631A (en) * 2008-12-15 2010-06-24 배일한 Remote controllable communication robot and robot system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100064196A (en) * 2008-12-04 2010-06-14 삼성전자주식회사 Method and appratus for estimating depth, and method and apparatus for converting 2d video to 3d video
KR20100068631A (en) * 2008-12-15 2010-06-24 배일한 Remote controllable communication robot and robot system

Also Published As

Publication number Publication date
KR20130097558A (en) 2013-09-03

Similar Documents

Publication Publication Date Title
CN110381197B (en) Method, device and system for processing audio data in many-to-one screen projection
JP6419262B2 (en) Headset computer (HSC) as an auxiliary display with ASR and HT inputs
WO2021184952A1 (en) Augmented reality processing method and apparatus, storage medium, and electronic device
CN111815666B (en) Image processing method and device, computer readable storage medium and electronic equipment
WO2021232913A1 (en) Voice information processing method and apparatus, and storage medium and electronic device
JPWO2017130486A1 (en) Information processing apparatus, information processing method, and program
CN112584049A (en) Remote interaction method and device, electronic equipment and storage medium
WO2022252823A1 (en) Method and apparatus for generating live video
WO2022228068A1 (en) Image acquisition method, apparatus, and system for electronic device, and electronic device
CN113420177A (en) Audio data processing method and device, computer equipment and storage medium
KR20180028701A (en) Portable camera and method for controlling the same
JPWO2019155735A1 (en) Information processing equipment, information processing methods and programs
CN106412810B (en) Data transmission method and device
WO2020138258A1 (en) Information processing device, information processing method, and information processing program
EP4246347A1 (en) Method for authorizing by using another device, electronic devices and system
CN110996117A (en) Video transcoding method and device, electronic equipment and storage medium
KR20170107137A (en) Head-mounted display apparatus using a plurality of data and system for transmitting and receiving the plurality of data
CN112241199A (en) Interaction method and device in virtual reality scene
CN111415421B (en) Virtual object control method, device, storage medium and augmented reality equipment
CN114520002A (en) Method for processing voice and electronic equipment
KR102058190B1 (en) Apparatus for providing character service in character service system
KR101306608B1 (en) Method for providing 3-dimensional display by using smart terminals and robot devices, and 3-dimensional display system using the same
CN110300275B (en) Video recording and playing method, device, terminal and storage medium
US11368611B2 (en) Control method for camera device, camera device, camera system, and storage medium
JP6461322B2 (en) Control device and display device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160629

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170710

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180627

Year of fee payment: 6