KR20200025285A - System and method for entertainer experience - Google Patents

System and method for entertainer experience Download PDF

Info

Publication number
KR20200025285A
KR20200025285A KR1020180102432A KR20180102432A KR20200025285A KR 20200025285 A KR20200025285 A KR 20200025285A KR 1020180102432 A KR1020180102432 A KR 1020180102432A KR 20180102432 A KR20180102432 A KR 20180102432A KR 20200025285 A KR20200025285 A KR 20200025285A
Authority
KR
South Korea
Prior art keywords
user
dialogue
information
opponent
actor
Prior art date
Application number
KR1020180102432A
Other languages
Korean (ko)
Inventor
김재윤
Original Assignee
김재윤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김재윤 filed Critical 김재윤
Priority to KR1020180102432A priority Critical patent/KR20200025285A/en
Publication of KR20200025285A publication Critical patent/KR20200025285A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y80/00Products made by additive manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Materials Engineering (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a content experience center, and more particularly, to a content experience center that makes audiences or the public expect more developed popular culture while providing the audiences or the public with deep impressions and memories for a long time by allowing the audiences or the public to directly participate in acting and performing actions for delivering themes, meanings, feelings and stories of performances, movies, CFs, music videos, dramas, or the like from perspectives of production staffs or actors to be a main experienced person to lead popular culture, and an experience method thereof. The content experience center comprises a database, an input device, a body shape photographing device, a stage background screen, an original voice extraction part, and an original image extraction part.

Description

컨텐츠 체험관 및 연예인 체험방법{SYSTEM AND METHOD FOR ENTERTAINER EXPERIENCE}Content Experience Center and Celebrity Experiences {SYSTEM AND METHOD FOR ENTERTAINER EXPERIENCE}

본 발명은 컨텐츠 체험관에 관한 것으로, 보다 상세하게는 공연, 영화 CF, 뮤직비디오 또는 드라마 등에서 전해주고자 하는 주제, 의미, 느낌 및 사연 등을 제작스텝이나 배우의 입장이 되어 관객 또는 일반인들이 직접 출연하고 액션하면서 대중문화를 이끄는 주체적 체험자가 되도록 함으로써 진한 감동과 추억을 오래도록 간직할 수 있도록 함과 동시에 보다 발전된 대중문화의 부흥을 기대할 수 있도록 하는 컨텐츠 체험관 및 그 체험방법에 관한 것이다.The present invention relates to a content experience hall, and more specifically, a theme, meaning, feeling, and story to be conveyed in a performance, a film CF, a music video, or a drama, etc., as a production step or an actor's position, and the audience or the general public appear directly. It is related to a content experience hall and a method of experiencing it so that you can have a deep impression and memories for a long time by becoming a subjective experience leader who leads the popular culture while acting.

일반적으로 영화, 공연, 드라마 등은 많은 장비와 인력이 필요로 하며, 한번 제작된 영상물은 하나씩은 비록 저렴할 수 있으나 상당히 많은 사람들이 시청함으로써 매출은 상당할 수 있다. 특히 등장인물은 대부분 선망이 되는 인물이 되어 시청자는 선망의 배우와 함께 연기하고자 하는 바람을 갖게 된다.In general, movies, performances, dramas, etc. require a lot of equipment and manpower, and once produced movies can be inexpensive one by one, but the sales can be considerable by watching a lot of people. In particular, most of the characters become envy, and viewers have a desire to act with the envy.

특히 근래들어 한류의 인기로 인해서 드라마나 영화의 배경지에서 들리는 외국관광객이 증가하고 배우들이 이용하였던 물건이나 의류의 매출도 증가하는 현상이 있다.In particular, the popularity of the Korean Wave has increased the number of foreign tourists who are heard in the background of dramas and movies, and the sales of goods and clothing used by actors are also increasing.

아울러 영화나 드라마와 관련된 장소나 기념 촬영지에서는 촬영 영상을 반영한 사진을 배경으로 하여 관광객들이 촬영하곤 하지만, 실제 인물들을 만나기가 쉽지 않다.In addition, tourists shoot in the backgrounds related to movies and dramas or photographs reflecting the shooting, but it is not easy to meet real people.

그리고 대부분 관광객들은 영상물에서 선망의 대상이 되는 배우의 상대배역이 되어 주인공이 되고 싶어하지만 이를 실현하기가 곤란한 것이다.And most tourists want to be the main characters by being the relative actors of the actors who are envyed in the video, but it is difficult to realize this.

따라서 이러한 배우들의 연기를 체험하기 위한 체험기술이 필요하게 된다.Therefore, experience skills are needed to experience the acting of these actors.

등록특허번호 제10-0724620호(2007년 06월 04일 공고)Patent Registration No. 10-0724620 (June 04, 2007) 공개특허번호 제10-2012-0012292호(2012년 02월 09일 공개)Publication No. 10-2012-0012292 (published February 09, 2012)

본 발명은 상기와 같은 문제점을 해소하기 위한 안출된 것으로, 본 발명의 목적은 실제 사용자의 체형이나 조건에 맞는 상황을 반영하여 사용자가 원하는 영상물을 제작할 수 있도록 하여, 사용자 맞춤형으로 컨텐츠 체험관을 제공할 수 있는 컨텐츠 체험관 및 연예인 체험방법을 제공하는 것이다.The present invention has been made to solve the above problems, an object of the present invention is to reflect the situation that meets the actual user's body shape or conditions, so that the user can produce the desired video content, to provide a user-specific content experience hall It is to provide a content experience hall and entertainer experience.

본 발명의 다른 목적은, 사용자의 체형이 등장 인물의 체형과 다를 경우 이를 사용자 체형에 맞게 상대배우의 연기를 편집할 수 있도록 함으로써, 사용자가 연기한 영상물에서는 실제 사용자가 원래 등장인물로 촬영된 것과 같이 이루어질 수 있는 컨텐츠 체험관 및 연예인 체험방법을 제공하는 것이다.Another object of the present invention, if the user's body type is different from the person's body shape, it is possible to edit the actor's acting according to the user's body shape, the actual user was taken as the original character in the video acted by the user It is to provide a content experience hall and celebrity experience that can be done together.

본 발명의 또 다른 목적은, 또한 사용자와 상대 가상 인물 사이에서 주고받는 대사를 할 때, 사용자의 마지막 대사를 판별하여 상대배우와의 연기가 자연스럽게 이루어질 수 있는 컨텐츠 체험관 및 연예인 체험방법을 제공하는 것이다.It is still another object of the present invention to provide a content experience hall and a celebrity experience method in which a user can perform a dialogue with a partner by determining the last dialogue of the user when a dialogue is exchanged between the user and the virtual person. .

상기와 같은 목적들을 달성하기 위한 본 발명에 따른 컨텐츠 체험관은, 공연, 영화, CF, 뮤직비디오, 및 드라마 중 어느 하나 이상의 원본 영상물의 데이터가 저장되고, 원본 영상물의 대사정보, 인물들의 영상정보에 대한 추출정보가 저장되며, 사용자의 신체 체형정보, 사용자의 음성정보, 사용자를 포함한 촬영정보가 저장되는 데이터베이스; 사용자의 신체정보를 입력하기 위한 입력장치; 사용자를 촬영하기 위한 체형 촬영장치; 원본 영상물이 표시되는 무대의 배경화면; 원본 영상물로부터 인물들의 대사정보를 추출하는 원음성 추출부; 및 원본 영상물로부터 인물들의 영상정보를 추출하는 원영상 추출부를 포함하여 이루어지는 것을 특징으로 한다.The content experience hall according to the present invention for achieving the above objects, the data of any one or more of the original image of the performance, movie, CF, music video, and drama is stored, the metabolic information of the original image, image information of the people Extracting information is stored in the database, the body body information of the user, the voice information of the user, the database storing the shooting information including the user; An input device for inputting user's body information; A body type photographing apparatus for photographing a user; A background screen of the stage on which the original image is displayed; An original sound extracting unit for extracting metabolic information of persons from an original video object; And an original image extracting unit extracting image information of persons from an original image.

여기서 사용자의 상대역할을 하기 위한 상대 로봇; 무대 주변으로 위치되어 사용자의 대사를 표시하는 대사 스크린; 사용자의 신체 체형에 따라 상대 가상의 배우의 영상물을 편집하여 저장하는 가상배우 연기정보 편집부; 및 사용자의 대사 음성을 입력받아 원본 영상물의 대사로 편집하는 사용자 대사 편집부를 더 포함하여 이루어짐이 바람직하다.A relative robot for performing a relative role of the user; A dialogue screen positioned around the stage to display the dialogue of the user; A virtual actor acting information editing unit for editing and storing a video of an opponent's virtual actor according to a user's body type; And a user dialogue editing unit configured to receive a dialogue voice of the user and edit the dialogue of the original video.

상기 상대 로봇은, 다리, 몸, 및 팔의 관절부를 갖는 인간형 몸체부; 및 3D 프린터를 이용하여 제작되어 상대 배우 얼굴과 동일한 인간의 얼굴 형태를 갖는 얼굴부를 포함하여 이루어짐이 바람직하다.The counterpart robot may include a humanoid body having joints of a leg, a body, and an arm; And a face part manufactured using the 3D printer and having the same human face shape as that of the other actor's face.

또한, 사용자의 상대역할을 하기 위한 가상의 배우를 생성하는 가상 현실 제공부; 무대 주변으로 위치되어 사용자의 대사를 표시하는 대사 스크린; 사용자의 신체 체형에 따라 상대 가상의 배우의 영상물을 편집하여 저장하는 가상배우 연기정보 편집부; 및 사용자의 대사 음성을 입력받아 원본 영상물의 대사로 편집하는 사용자 대사 편집부를 더 포함한다.In addition, the virtual reality providing unit for generating a virtual actor to play the role of the user; A dialogue screen positioned around the stage to display the dialogue of the user; A virtual actor acting information editing unit for editing and storing a video of an opponent's virtual actor according to a user's body type; And a user dialogue edit unit configured to receive a user's dialogue voice and to edit the dialogue of the original video.

또한, 사용자의 상대역할을 하기 위한 가상의 배우를 생성하는 증강 현실 제공부; 무대 주변으로 위치되어 사용자의 대사를 표시하는 대사 스크린; 사용자의 신체 체형에 따라 상대 가상의 배우의 영상물을 편집하여 저장하는 가상배우 연기정보 편집부; 및 사용자의 대사 음성을 입력받아 원본 영상물의 대사로 편집하는 사용자 대사 편집부를 더 포함한다.In addition, an augmented reality providing unit for generating a virtual actor to play the role of the user; A dialogue screen positioned around the stage to display the dialogue of the user; A virtual actor acting information editing unit for editing and storing a video of an opponent's virtual actor according to a user's body type; And a user dialogue edit unit configured to receive a user's dialogue voice and to edit the dialogue of the original video.

상기와 같은 목적들을 달성하기 위한 본 발명에 따른 연예인 체험방법은, 데이터베이스에 저장된 공연, 영화, CF, 뮤직비디오, 및 드라마 중 어느 하나 이상의 원본 영상물로부터 인물들의 대사정보를 원음성 추출부에 의해서 추출하여 저장하는 원대사 정보 추출단계; 상기 데이터베이스에 저장된 상기 원본 영상물로부터 인물들의 영상정보를 원영상 추출부에 의해서 추출하여 저장하는 원배우 영상 추출단계; 컨텐츠 체험관을 이용하고자 하는 사용자의 정보를 소정의 입력장치를 통하여 입력하여 상기 데이터베이스에 저장하는 사용자정보 저장단계; 사용자의 신체정보를 입력장치를 통하여 직접 사용자가 입력하여 상기 데이터베이스에 저장하거나 또는 체형 촬영장치를 통하여 사용자를 촬영한 영상정보를 분석하여 사용자의 신체정보를 저장하는 사용자 체형정보 저장단계; 배경화면에 기본 배경영상을 표시하는 기본 배경영상 플레이단계; 무대 주변으로 위치되는 대사 스크린에 사용자가 말하게 될 대사를 표시하는 사용자 대사 스크린 표시단계; 상기 대사 스크린에 표시된 사용자의 대사에 따라 사용자의 음성을 입력받아 상기 데이터베이스에 저장하는 사용자 대사입력단계; 및 상기 기본 배경영상 플레이단계 실행 이후의 단계에 따라 상대 가상배우의 연기 및 사용자의 연기에 대해 카메라로 촬영하고 녹음기로 녹음하는 영상 촬영단계(S120)를 포함하여 이루어지는 것을 특징으로 한다.The celebrity experience method according to the present invention for achieving the above objects, extracts the metabolism information of the characters from the original video content of any one or more of the performance, movie, CF, music video, and drama stored in the database by the original audio extractor Raw metabolic information extraction step for storing; An original actor image extracting step of extracting and storing image information of persons from the original image stored in the database by an original image extracting unit; A user information storage step of inputting information of a user who wants to use a content experience hall through a predetermined input device and storing the information in a database; Storing the user's body information by directly inputting the user's body information through the input device and storing the user's body information by storing the user's body information by analyzing the image information photographed by the user through the input device; A basic background image play step of displaying a basic background image on a wallpaper; A user dialogue screen display step of displaying a dialogue to be spoken by a user on a dialogue screen positioned around a stage; A user dialogue input step of receiving a voice of the user according to the dialogue of the user displayed on the dialogue screen and storing the voice in the database; And an image capturing step (S120) of photographing with a camera and recording with a voice recorder for the acting of the opponent virtual actor and the acting of the user according to the steps after the execution of the basic background image playing step.

여기서 상기 사용자 체형정보 저장단계)에 의해서 저장된 사용자의 체형에 따라 상대 가상의 배우의 영상물을 가상배우 연기정보 편집부를 통하여 편집하여 저장하는 가상배우 연기정보 편집단계를 포함함이 바람직하다.In this case, it is preferable to include a virtual actor acting information editing step of editing and storing the video image of the opponent virtual actor through the virtual actor acting information editing unit according to the user's body type stored in the user body type information storing step.

또한 상기 기본 배경영상 플레이단계에 따라 컨텐츠 체험관의 무대 배경화면에 원본 영상물의 배경화면을 표시하면서, 사용자의 상대 배우역할을 하는 인물을 배경화면에 표시, 홀로그램 3차원 영상, 아바타, 가상 현실 및 증강 현실로 표시 중 어느 하나 이상으로 상대 배우역할의 인물을 표시하거나, 상대 로봇으로 상대 배우 역할을 연기하는 상대 가상배우 연기플레이단계; 및 상기 상대 가상배우 연기플레이단계와 함께 무대의 스피커 또는 로봇의 스피커로 상대 가상배우의 대사를 음성으로 발생시키는 상대 가상배우 음성 플레이단계를 포함함이 바람직하다.In addition, according to the basic background image play step, the background image of the original image is displayed on the stage background of the content experience hall, and the person acting as the other actor on the background screen, holographic 3D image, avatar, virtual reality and augmentation A virtual actor acting play step of displaying a character of the opponent actor role in at least one of the display as reality, or playing the opponent actor role as the opponent robot; And the opponent virtual actor voice play step of generating a speech of the opponent virtual actor to the speaker of the stage or the speaker of the robot together with the opponent virtual actor acting play step.

또한 상기 상대 가상배우 음성 플레이단계의 수행 이후, 사용자 대사 편집부에 의하여 상기 대사 스크린에 표시된 사용자 대사 중에서, 한 씬의 사용자 대사의 마지막 대사에 대한 사용자의 음성을 입력받은 경우 해당 사용자의 한 씬의 대사로 판별하고, 다음의 상대 가상배우에 대한 상기 상대 가상배우 연기플레이단계 및 상대 가상배우 음성 플레이단계 중 어느 하나 이상의 단계를 수행하는 사용자 종료 대사 판별단계를 포함함이 바람직하다.In addition, after performing the relative virtual actor voice play step, when a user voice is input from the user dialogue displayed on the dialogue screen by the user dialogue editor, for the last dialogue of the user dialogue of one scene, the dialogue of one scene of the corresponding user is performed. And determining a user termination dialogue step for performing any one or more of the following steps of playing the opponent virtual actor and the opponent virtual actor voice for the next opponent virtual actor.

또한, 상기 영상 촬영단계에 의해 생성된 영상물을 디스플레이 화면에 표시하거나 스피커로 출력하거나 또는 메모리에 저장하거나 또는 임시저장장치에 저장하는 영상출력물 생성단계를 포함함이 바람직하다.The method may further include generating an image output generated by displaying the image generated by the image capturing step on a display screen, outputting it to a speaker, storing it in a memory, or storing it in a temporary storage device.

상기와 같이 구성되는 본 발명에 따른 컨텐츠 체험관 및 연예인 체험방법에 따르면, 실제 사용자의 체형이나 조건에 맞는 상황을 반영하여 사용자가 원하는 영상물을 제작할 수 있도록 하여, 사용자 맞춤형으로 컨텐츠 체험관을 제공하는 효과가 있다.According to the content experience hall and celebrity experience method according to the present invention configured as described above, it is possible to create a video experience desired by the user by reflecting the situation that fits the actual user's body type or condition, and provides a user-customized content experience hall. have.

또한, 사용자의 체형이 등장 인물의 체형과 다를 경우 이를 사용자 체형에 맞게 상대배우의 연기를 편집할 수 있도록 함으로써, 사용자가 연기한 영상물에서는 실제 사용자가 원래 등장인물로 촬영된 것과 같이 이루어질 수 있는 효과도 있다.In addition, if the user's body type is different from the person's body type, the user can edit the actor's acting according to the user's body shape. In the video acted by the user, the actual user can be made as if the original character was photographed. There is also.

또한, 사용자와 상대 가상 인물 사이에서 주고받는 대사를 할 때, 사용자의 마지막 대사를 판별하여 상대배우와의 연기가 자연스럽게 이루어지는 장점도 있다.In addition, when talking between a user and an opponent virtual person, there is an advantage that the acting with the other actor is naturally performed by determining the user's last dialogue.

도 1은 본 발명에 따른 컨텐츠 체험관에 대해서 사용자 정보를 입력하는 상태에 대한 구성예시도이다.
도 2는 본 발명에 따른 컨텐츠 체험관에 대한 무대의 구성예시도이다.
도 3은 본 발명에 따른 컨텐츠 체험관에 의해서 촬영되고 DVD 등의 영상출력물을 생성함에 대한 구성예시도이다.
도 4는 본 발명에 따른 컨텐츠 체험관에 대한 시스템 제어 구성도이다.
도 5는 본 발명에 따른 컨텐츠 체험관에 따른 연예인 체험방법에 대한 순서도이다.
1 is an exemplary configuration diagram of a state in which user information is input to a content experience hall according to the present invention.
2 is an exemplary configuration diagram of a stage for a content experience hall according to the present invention.
3 is an exemplary configuration diagram for generating an image output such as a DVD photographed by a content experience hall according to the present invention.
4 is a system control configuration diagram for a content experience hall according to the present invention.
5 is a flowchart illustrating a celebrity experience method according to a content experience hall according to the present invention.

본 발명은 그 기술적 사상 또는 주요한 특징으로부터 벗어남이 없이 다른 여러가지 형태로 실시될 수 있다. 따라서, 본 발명의 실시예들은 모든 점에서 단순한 예시에 지나지 않으며 한정적으로 해석되어서는 안된다.The present invention can be embodied in many different forms without departing from the spirit or main features thereof. Accordingly, the embodiments of the present invention are merely examples in all respects and should not be construed as limiting.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. When a component is said to be "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that another component may be present in the middle. Should be.

반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함하다" 또는 "구비하다", "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, the terms "comprise", "comprise", "have", etc., are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, one Or other features or numbers, steps, operations, components, components or combinations thereof, or those in combination thereof should not be excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 가장 바람직한 실시예를 첨부된 도면을 참조로 하여 상세히 설명하기로 한다.Hereinafter, the most preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. .

도 1은 본 발명에 따른 컨텐츠 체험관에 대해서 사용자 정보를 입력하는 상태에 대한 구성예시도이고, 도 2는 본 발명에 따른 컨텐츠 체험관에 대한 무대의 구성예시도이고, 도 3은 본 발명에 따른 컨텐츠 체험관에 의해서 촬영되고 DVD 등의 영상출력물을 생성함에 대한 구성예시도이고, 도 4는 본 발명에 따른 컨텐츠 체험관에 대한 시스템 제어 구성도이다.1 is an exemplary configuration diagram of a state of inputting user information for a content experience hall according to the present invention, FIG. 2 is an exemplary configuration diagram of a stage for a content experience hall according to the present invention, and FIG. 3 is a content example according to the present invention. FIG. 4 is an exemplary configuration diagram for generating an image output such as a DVD photographed by an experience hall, and FIG. 4 is a system control configuration diagram for a content experience hall according to the present invention.

도시된 바와 같이, 본 발명에 따른 컨텐츠 체험관에서는 공연, 영화, CF, 뮤직비디오, 및 드라마 등과 같이 영상물에서 등장하는 인물로 사용자들이 인입되어 연기를 체험함으로써, 드라마의 주인공이 된 듯한 체험을 하게 된다.As shown, in the content experience hall according to the present invention, users are introduced into the characters appearing in the video, such as performances, movies, CFs, music videos, and dramas, and experience acting as if they are acting as heroes of the drama. .

특히 근래들어 한류의 영향으로 인기가 있는 드라마나 영화 등에 사용자 자신이 원하는 상대배우를 가상으로 하여 사용자 스스로 대상의 선망이 되는 인물로 연기하여, 단순히 시청하는 것에 더하여 보다 현실감있게 체험할 수 있도록 되어 있다.In particular, in recent years, due to the influence of the Korean Wave, popular actors, such as dramas and movies, which are desired by the user, act virtually as the envy of the user. .

또한 이후의 예시에서처럼 이를 CD, DVD, 메모리 등으로 제작하여 계속적으로 보관이 가능하도록 실시할 수도 있을 것이다.In addition, as in the following example, it may be implemented to be continuously stored in a CD, DVD, memory and the like.

먼저, 본 발명에 따른 컨텐츠 체험관의 구성의 예를 살펴보면, 공연, 영화, CF, 뮤직비디오, 및 드라마 중 어느 하나 이상의 원본 영상물의 데이터가 저장되고, 원본 영상물의 대사정보, 인물들의 영상정보에 대한 추출정보가 저장되며, 사용자의 신체 체형정보, 사용자의 음성정보, 사용자를 포함한 촬영정보가 저장되는 데이터베이스(20)가 구비된다.First, looking at an example of the configuration of the content experience hall according to the present invention, the data of any one or more of the original image of the performance, movie, CF, music video, and drama is stored, and the metabolic information of the original image, image information of the people The extraction information is stored, and a database 20 is provided to store body shape information of the user, voice information of the user, and photographing information including the user.

그리고 원본 영상물로부터 인물들의 대사정보를 추출하는 원음성 추출부(31)를 포함하여, 원본 영상물로부터 배우들의 대사 정보를 추출하게 되며, 이후의 과정으로 사용자에 맞춰서 추출된 대사를 편집하여 사용자에 맞춤형으로 녹화가 이루어질 수 있게 한다.And including the original audio extracting unit 31 for extracting the metabolic information of the characters from the original video material, and extracts the actor's metabolic information from the original video material, and edits the extracted dialogue to the user in the subsequent process to customize the user Enable recording.

또한 원본 영상물로부터 인물들의 영상정보를 추출하는 원영상 추출부(32)를 포함하는 것이다. 이러한 배우의 영상에 대해서, 사용자를 대입하여 새로이 편집된 영상물을 제작이 가능한 것이다.It also includes an original image extraction unit 32 for extracting the image information of the person from the original image. For the actor's video, a newly edited video can be produced by substituting the user.

아울러 사용자가 즐길 수 있도록 하기 위해서는 사용자에 대한 정보나 체형 등의 내용이 시스템에 디지털 정보로 저장되어야 할 것이다.In addition, in order for the user to enjoy it, information such as information about the user or body shape should be stored as digital information in the system.

이를 위해 사용자의 신체정보를 입력하기 위한 입력장치(12)가 마련된다.To this end, an input device 12 for inputting user's body information is provided.

또한 사용자를 촬영하기 위한 체형 촬영장치(13)가 마련된다.In addition, a body type photographing apparatus 13 for photographing a user is provided.

이처럼 원본 영상물이 준비되고, 사용자의 정보가 입력된 상태에서, 사용자와 가상 인물이 반영된 무대 영상이 표시되는 중에 사용자를 무대 인물로 하여 촬영함으로써 새로운 영상물을 생성하게 되는 것이다. As such, the original image is prepared, and while the user's information is input, the new image is generated by photographing the user as the stage person while the stage image reflecting the user and the virtual person is displayed.

여기에 기본적인 원본 영상물이 표시되는 무대의 배경화면(14)이 마련된다.Here, the background screen 14 of the stage on which the basic original image is displayed is provided.

또한 이러한 배경화면(14) 상으로 상대 배역이 함께 표시할 수 있을 것이다. 또는 홀로그램 기술을 이용하여 사용자 앞이나 주변으로 상대의 가상 배우를 나타낼 수 있으며, 이러한 사용자와 함께, 가상 배우도 촬영할 수 있을 것이다.In addition, the opponent can be displayed together on the background (14). Alternatively, the holographic technology may be used to represent the virtual actor of the opponent in front of or around the user, and the virtual actor may be photographed with the user.

또는 가상 현실 기술을 이용하여 사용자 앞이나 주변으로 상대의 가상 배우를 나타낼 수 있으며, 이러한 사용자와 함께, 가상 배우도 촬영할 수 있을 것이다.Alternatively, the virtual actor may be displayed in front of or around the user using virtual reality technology, and with the user, the virtual actor may be photographed.

이를 위하여 가상 현실 기술을 이용하여 사용자 앞이나 주변으로 상대의 가상 배우를 나타낼 수 있는 가상 현실 제공부(미도시)를 포함할 수 있다.To this end, it may include a virtual reality provider (not shown) that can represent the virtual actor of the opponent in front of or around the user using the virtual reality technology.

또는 증강 현실 기술을 이용하여 사용자 앞이나 주변으로 상대의 가상 배우를 나타낼 수 있으며, 이러한 사용자와 함께, 가상 배우도 촬영할 수 있을 것이다.Alternatively, the augmented reality technology may be used to represent the virtual actor of the opponent in front of or around the user, and with the user, the virtual actor may be photographed.

이를 위하여 증강 현실 기술을 이용하여 사용자 앞이나 주변으로 상대의 가상 배우를 나타낼 수 있는 증강 현실 제공부(미도시)를 포함할 수 있다.To this end, it may include an augmented reality provider (not shown) that can represent the virtual actor of the opponent in front of or around the user using augmented reality technology.

나아가 사용자의 상대역할을 하기 위한 상대 로봇(15)을 구비할 수 있을 것이다. 그리하여 상대 로봇(15)이 가상의 상대 배우 역할을 연기하며, 이를 사용자와 함께 연기하는 것을 촬영하여 영상물로 제작할 수 있는 것이다.Furthermore, it may be provided with a counterpart robot 15 to play a role of the user. Thus, the opponent robot 15 plays the role of the virtual opponent actor, it is possible to shoot the acting with the user to produce an image.

여기서, 상기 상대 로봇(15)은 다리, 몸, 및 팔의 관절부를 갖는 인간형 몸체부와, 3D 프린터를 이용하여 제작된 인간의 얼굴 형태를 갖는 얼굴부를 포함하여 이루어진다.Here, the counterpart robot 15 includes a humanoid body part having joints of a leg, a body, and an arm, and a face part having a human face shape manufactured using a 3D printer.

즉, 관절로 연결된 다리, 몸, 및 팔의 인간형 몸체부를 먼저 제작한 후에, 스캐너(Scanner)를 이용하여 입체 스캐닝(scanning) 작업을 수행한 후 3D 프린터를 이용하여 손쉽고, 용이하게 컬러 프린팅 작업에 의해 해당 배우나 연예인 얼굴 형태와 동일한 얼굴부를 제작할 수 있게 된다. That is, the human body of the legs, the body, and the arms connected by the joints are first manufactured, and then a three-dimensional scanning operation is performed using a scanner, and then easily and easily used for color printing using a 3D printer. By doing so, the same face part as that of the actor or celebrity face can be produced.

한편, 상기 인간형 로봇인 상대 로봇(15))의 몸체부(Body) 상측에 위치되어 사람의 얼굴을 구성하는 얼굴부를 스캐너(Scanner)를 이용하여 예를 들면 공지의 360도 스캐닝(scanning) 작업을 수행한 후 3D 프린터를 이용하여 손쉽고, 용이하게 컬러 프린팅 작업에 의해, 사람의 얼굴 형태와 동일한 얼굴부를 제작할 수 있도록 하며, 또한, 상기 사람의 얼굴을 갖는 얼굴부를 인간형 로봇의 몸체부 상측 헤드 부위에 간편하게 결합하여 인간형 로봇을 완성할 수 있도록 함은 물론, 상기 인간형 로봇의 몸체부에 결합되는 얼굴부의 눈 부위에는 카메라를 장착하며, 입 부위에는 스피커를 장착하여, 상기 인간형 로봇에서 사물의 인지 및 음성신호를 용이하게 전달할 수 있다. 이러한 인간형 로봇의 얼굴 제작방법에 대해서는 알려진 기술이므로 추가적인 세부기술은 생략하기로 한다.On the other hand, the face portion which is located above the body of the counterpart robot 15, which is the humanoid robot, and constitutes a human face, for example, uses a scanner to perform a well-known 360-degree scanning operation. After performing the 3D printer, it is possible to easily and easily perform color printing to produce the same face part as the shape of the human face, and further, the face part having the human face to the upper head of the human body robot body part. Easily combined to complete the humanoid robot, as well as a camera mounted on the eye portion of the face coupled to the body of the humanoid robot, a speaker is mounted on the mouth, the recognition and voice of the object in the humanoid robot The signal can be easily delivered. Since the method for manufacturing a face of such a humanoid robot is a known technology, further detailed description will be omitted.

이어서, 인간형 로봇의 몸체부 상측에 해당 배우나 연예인 얼굴과 동일한 얼굴부를 리벳 또는 접착 수단에 의해 결합 또는 접착하여 상대 로봇(15)을 완성할 수 있다.Subsequently, the opponent robot 15 may be completed by joining or bonding the same face part as the actor or entertainer face above the body part of the humanoid robot by riveting or bonding means.

아울러 사용자가 쉽게 대사를 숙지하지 못할 수 있으므로, 무대 주변으로 위치되어 사용자의 대사를 표시하는 대사 스크린(16)을 구비하는 것이다.In addition, since the user may not be familiar with the dialogue easily, it is provided with a dialogue screen 16 positioned around the stage to display the dialogue of the user.

다음으로 사용자의 신체 체형에 따라 상대 가상의 배우의 영상물을 편집하여 저장하는 가상배우 연기정보 편집부(33)를 구비한다. 즉 실제 원본 영상물 중에서 사용자가 연기하게 될 실제 배우와, 사용자가 신체 체형이 다를 경우, 키나 몸무게 등의 신체조건을 반영하여, 상대 배우인 가상 배우의 팔이나 걷는 정도 등에 대해서 편집하여 상대 배우의 연기정보를 구비하게 된다.Next, a virtual actor acting information editing unit 33 for editing and storing the video material of the opponent virtual actor according to the user's body type is provided. In other words, the actual actor to be played by the user from the actual original video, if the user's body shape is different, reflecting the physical conditions such as height and weight, edit the arm or walking degree of the virtual actor, the other actor to act the other actor Information will be provided.

아울러 사용자의 대사 음성을 입력받아 원본 영상물의 대사로 편집하는 사용자 대사 편집부(34)를 더 포함한다.In addition, the user dialogue further includes a user dialogue editing unit 34 for receiving the user's speech voice and editing the dialogue of the original video.

즉 사용자가 하는 대사의 음성을 마이크 등으로 입력받아 저장하고, 원본 영상물에 사용자가 연기하였던 인물의 대사를 대신하여 사용자가 대사한 음성정보를 영상물에 포함시켜 편집하게 된다.That is, the voice of the user's dialogue is inputted and stored in a microphone, and the voice information spoken by the user is edited in the original video instead of the person's dialogue.

도 5는 본 발명에 따른 컨텐츠 체험관에 따른 연예인 체험방법에 대한 순서도로서, 본 발명에 따른 컨텐츠 체험관을 통해서 사용자가 직접 연기자가 되어 연기하는 연예인 체험방법에 대해서 도 1 내지 도 4와 함께 살펴보기로 한다.FIG. 5 is a flowchart illustrating a celebrity experience method according to a content experience hall according to the present invention. The celebrity experience method in which a user directly acts as an actor through the content experience hall according to the present invention will be described with reference to FIGS. 1 to 4. do.

우선 원본 영상정보를 저장하게 된다. 그리고 데이터베이스(20)에 저장된 공연, 영화, CF, 뮤직비디오, 및 드라마 중 어느 하나 이상의 원본 영상물로부터 인물들의 대사정보를 원음성 추출부(31)에 의해서 추출하여 저장하는 원대사 정보 추출단계(S10)를 수행한다.First, the original image information is stored. And raw metabolic information extraction step of extracting and storing the metabolic information of the characters from the original video content of any one or more of the performance, movie, CF, music video, and drama stored in the database 20 by the original audio extracting unit 31 (S10) ).

이렇게 추출된 인물들의 대사정보에 대해서, 이후 사용자가 맞은 배역의 대사 정보는 영상물에서 삭제하고, 상대 배우의 대사에 대해서는 사용자의 이름이나 사용자가 원하는 대사를 반영하여 상대 배우의 대사를 편집하여 저장하게 된다.For the metabolic information of the extracted characters, the metabolic information of the casted user is deleted from the video, and the metabolic of the other actor can be edited and stored by reflecting the user's name or the desired metabolism for the other actor's dialogue. do.

다음으로 상기 데이터베이스(20)에 저장된 상기 원본 영상물로부터 인물들의 영상정보를 원영상 추출부(32)에 의해서 추출하여 저장하는 원배우 영상 추출단계(S20)를 수행한다.Next, an original actor image extraction step (S20) of extracting and storing image information of persons from the original image stored in the database 20 by the original image extracting unit 32 is performed.

그리하여 사용자의 연기를 반영한 새로이 편집되는 영상물에서, 이후 사용자가 담당한 배역의 인물은 영상물에서 삭제해야 할 것이고, 반면 사용자의 상대 배역의 가상 인물은 사용자의 체형에 맞게 팔이나 몸을 움직여야 할 것이고 이렇게 편집되어 영상물을 새로이 편집하게 될 것이다.Thus, in a newly edited video that reflects the user's performance, the character of the cast in charge of the user will then have to be removed from the footage, while the virtual character of the user's relative cast will have to move his arm or body to match the user's body shape. It will be edited and new footage will be edited.

아울러 컨텐츠 체험관(10)을 이용하고자 하는 사용자의 정보를 소정의 입력장치(12)를 통하여 입력하여 데이터베이스(20)에 저장하는 사용자정보 저장단계(S30)를 수행한다. 즉 원본 영상물에서 반영하게 되는 사용자의 정보로써, 사용자의 이름이나, 거주지, 사용자가 원하는 촬영지역이나 장소 등 영상물에서 언급하게 되는 조건 정보로써 사용자가 원하는 정보를 입력하게 된다. 필요한 경우 사용자의 음성이나, 필요한 씬의 경우 해당 원본 씬(scene)을 대신하는 영상이나 사진을 반영할 수도 있을 것이다.In addition, the user information storage step (S30) of inputting information of the user who wants to use the content experience hall 10 through the predetermined input device 12 and storing it in the database 20 is performed. That is, as the information of the user to be reflected in the original video material, the user inputs the desired information as the condition information referred to in the video material such as the user's name, place of residence, and the shooting area or place desired by the user. If necessary, it may reflect the user's voice or, in the case of a necessary scene, an image or a picture that replaces the original scene.

다음으로 사용자의 신체정보를 입력장치(12)를 통하여 직접 사용자가 입력하여 데이터베이스(20)에 저장하거나 또는 체형 촬영장치(13)를 통하여 사용자를 촬영한 영상정보를 분석하여 사용자의 신체정보를 저장하는 사용자 체형정보 저장단계(S40)를 수행한다.Next, the user's body information is directly input through the input device 12 and stored in the database 20, or the image information photographed by the user is analyzed by the body imaging device 13 to store the user's body information. A user body type information storing step S40 is performed.

즉 실제 원본 영상물에서 사용자가 맞은 배역의 체형과 사용자의 체형이 다를 경우, 상대배역과의 포옹, 얼굴 만지기, 따귀 등 다양한 씬에서의 상대적인 높이나 거리가 다를 수 있으므로, 사용자의 신체 체형정보를 반영할 필요가 있다. 따라서 사용자의 신체 체형 정보를 입력하게 된다. 이러한 사용자의 입력은 입력장치(12)를 이용할 수도 있고, 체형 촬영장치(13)로 촬영한 다음에, 촬영된 사용자의 영상을 분석하여 사용자의 신체 정보를 분석할 수 있다.In other words, if the user's body shape is different from the actual body shape, the relative height or distance in various scenes such as hugs, face touches, and tacks may be different, so that the user's body shape information may be reflected. There is a need. Therefore, the user's body type information is input. The input of the user may use the input device 12, or may be photographed by the body type photographing device 13, and then the user's body information may be analyzed by analyzing the photographed image of the user.

이어서, 이와 같이 상기 사용자 체형정보 저장단계(S40)에 의해서 저장된 사용자의 체형에 따라 상대 가상의 배우의 영상물을 가상배우 연기정보 편집부(33)를 통하여 편집하여 저장하는 가상배우 연기정보 편집단계(S50)를 수행한다.Subsequently, according to the user's body type stored in the user's body type information storage step (S40), the virtual actor acting information editing step (S50) is edited and stored through the virtual actor acting information editing unit 33 according to the user's body type. ).

즉 사용자가 연기할 원본 영상에서 인물과 사용자가 서로 신체체형이 다를 수 있으므로, 이를 반영하여 상대 배우의 연기 영상정보를 편집하게 된다. 즉 포옹이나 얼굴만지기, 따귀 등과 같은 연기영상에 대해서 편집과정을 수행하게 된다.That is, since the person and the user may have different body types in the original video to be played by the user, the actor image is edited to reflect the actor's acting image information. In other words, the editing process is performed on acting images such as hugs, face touching, and humping.

다음으로 이처럼 기본적인 조건을 입력하고 필요한 편집과정을 거친 다음에는, 본격적으로 사용자가 인입된 영상물을 촬영하고 대사 음성을 입력받아, 사용자가 대입된 연예인 체험의 영상물을 생성하게 된다.Next, after inputting the basic condition and undergoing the necessary editing process, the user takes a picture of the incoming video and receives an ambassador voice to generate a video of the entertainer experience.

우선 기본이 되는 배경을 반영하는 것으로써, 배경화면(14)에 실제 원본영상의 기본 배경영상을 표시하는 기본 배경영상 플레이단계(S60)를 수행한다.First, by reflecting the basic background, the basic background image play step (S60) of displaying the basic background image of the actual original image on the background screen 14 is performed.

그리고 상기 기본 배경영상 플레이단계(S60)에 따라 컨텐츠 체험관의 무대 배경화면(14)에 원본 영상물의 배경화면을 표시하면서, 사용자의 상대 배우역할을 하는 인물을 배경화면에 표시, 및 홀로그램 3차원 영상, 가상 현실, 증강 현실로 표시 중 어느 하나 이상으로 상대 배우역할의 인물을 표시하거나, 상대 로봇(15)으로 상대 배우 역할을 연기하는 상대 가상배우 연기플레이단계(S70)를 수행한다.In addition, according to the basic background image play step (S60), while displaying the background image of the original video on the stage background screen 14 of the content experience hall, the person who acts as the other actor on the background screen, and the hologram three-dimensional image , Display the person of the opponent actor role in at least one of the display in virtual reality, augmented reality, or perform the opponent virtual actor act play step (S70) to play the opponent actor role to the opponent robot (15).

이러한 상대 배우 역할을 표시하는 방법은, 스크린에 표시, 홀로그램 기술을 적용한 3차원 영상의 표시, 아바타를 이용하는 기술, 가상 현실을 이용하는 기술, 증강 현실을 이용하는 기술 및 기타 로봇을 이용한 상대배우 연기 등의 기술을 이용할 수 있으며, 이를 위한 영상표시, 홀로그램 기술, 가상 현실, 증강 현실, 로봇의 작동 등은 일반적인 기술을 적용할 수 있으며, 이에 대한 구체적인 기술들은 적용되는 원본영상이나 무대 시설 등에 따라 알맞게 정하여져 실시될 수 있으며, 이러한 공개된 일반적인 영상표시, 홀로그램 기술, 가상 현실, 증강 현실 및 로봇 기술들은 일반적으로 이용되는 기술로써 구체적인 기술설명은 생략하기로 한다.The method of displaying the role of the other actor may be displayed on a screen, display of a 3D image by applying hologram technology, technology using an avatar, technology using virtual reality, technology using augmented reality, and acting with other robots. The technology can be used, and the general technique can be applied to the image display, hologram technology, virtual reality, augmented reality, and robot operation for this purpose, and specific technologies for this are determined according to the original image or stage facility to be applied. The disclosed general image display, hologram technology, virtual reality, augmented reality and robot technologies are commonly used technologies, and thus detailed descriptions thereof will be omitted.

여기서, 아바타를 이용하는 경우에는, 아바타 얼굴에 사용자의 표정을 실시간으로 재현하는 3D 모션 캡쳐 기술을 이용하는 것으로, 촬영된 영상으로부터 사용자의 얼굴에 대한 표정 변화를 감지할 수 있는 표정 특징점을 추적하는 단계; 미리 저장된 3D 모션 캡쳐 데이터들로부터 추출된 제1 맵핑 특징(mapping feature) 및 상기 표정 특징점으로부터 추출된 제2 맵핑 특징을 이용하여 상기 사용자의 얼굴에 대한 표정 변화를 재구성하는 단계; 상기 표정 특징점의 좌표를 상기 사용자의 얼굴에 대응되는 아바타(avatar)를 제어하기 위한 페이스 메쉬(facemesh) 상의 제어 좌표로 전환하는 단계; 및 상기 제어 좌표를 이용하여 상기 아바타에 상기 사용자의 표정 변화가 나타나도록 3D 얼굴 애니메이션을 구성하는 단계로 이루어진다Here, when using the avatar, by using a 3D motion capture technology that reproduces the user's expression on the avatar face in real time, tracking the facial feature point that can detect the facial expression change for the user's face from the captured image; Reconstructing a facial expression change for the user's face using a first mapping feature extracted from prestored 3D motion capture data and a second mapping feature extracted from the facial expression feature point; Converting coordinates of the facial feature point into control coordinates on a face mesh for controlling an avatar corresponding to the face of the user; And constructing a 3D face animation such that the user's facial expression change appears in the avatar using the control coordinates.

이때, 상기 사용자의 얼굴에 대한 표정 변화를 재구성하는 단계는 상기 제1 맵핑 특징을 매칭시킨 의미 있는 얼굴 표정을 나타내는 모션 캡쳐 데이터들과 상기 제2 맵핑 특징 간의 유사도(correspondence)를 이용하여 상기 의미 있는 얼굴 표정을 나타내는 모션 캡쳐 데이터들 중 적어도 하나의 모션 캡쳐 데이터를 선택하여 이루어진다.In this case, the reconstructing the facial expression change of the user's face may be performed using the correlation between the motion capture data representing the meaningful facial expression matching the first mapping feature and the second mapping feature. The motion capture data representing the facial expression is selected by selecting at least one motion capture data.

이러한 3D 모션 캡쳐 기술은 알려진 기술이므로 추가적인 부연 설명은 생략하기로 한다.Since the 3D motion capture technology is a known technology, further description will be omitted.

아울러 상기 상대 가상배우 연기플레이단계(S70)와 함께 무대의 스피커 또는 로봇의 스피커로 상대 가상배우의 대사를 음성으로 발생시키는 상대 가상배우 음성 플레이단계(S80)를 수행한다. 따라서 사용자는 상대배우의 음성을 들으면서 연기할 수 있을 것이다. In addition to performing the opponent virtual actor act play step (S70) and performs the voice of the opponent virtual actor voice play step (S80) to generate the speech of the opponent virtual actor to the speaker of the stage or the speaker of the robot. Therefore, the user can act while listening to the voice of the other actor.

다만 미리 입력한 사용자의 이름이나 장소 등의 대사정보를 반영하여 상대배우의 대사음성을 들리게 하는 것이다. 따라서 이러한 상대배우의 대사를 들으면서 사용자가 다음의 대사를 이어서 연기하게 될 것이다.However, it reflects the metabolic voice of the other actor by reflecting the metabolic information such as the name or place of the user input in advance. Therefore, while listening to the dialogue of the other actors, the user will postpone the next dialogue.

다음으로 무대 주변으로 위치되는 대사 스크린(16)에 사용자가 말하게 될 대사를 표시하는 사용자 대사 스크린 표시단계(S90)를 수행한다. 그리하여 사용자는 손쉽게 대사를 잊어버리지 않고 연기할 수 있을 것이다.Next, a user dialogue screen display step S90 of displaying a dialogue to be spoken by a user on a dialogue screen 16 positioned around a stage is performed. Thus, the user can easily postpone the dialogue without forgetting.

이어서 대사 스크린(16)에 표시된 사용자의 대사에 따라 사용자의 음성을 입력받아 데이터베이스(20)에 저장하는 사용자 대사입력단계(S100)를 수행한다.Subsequently, the user's voice is input according to the user's voice displayed on the dialogue screen 16 and the user's voice input step S100 is stored in the database 20.

특히 사용자가 대사하는 중에, 사용자의 마지막 대사를 인식할 필요가 있다. 이를 위해 상기 상대 가상배우 음성 플레이단계(S80)의 수행 이후, 사용자 대사 편집부(34)에 의하여 대사 스크린(16)에 표시된 사용자 대사 중에서, 한 씬의 사용자 대사의 마지막 대사에 대한 사용자의 음성을 입력받은 경우 해당 사용자의 한 씬의 대사로 판별하고, 다음의 상대 가상배우에 대한 상기 상대 가상배우 연기플레이단계(S70) 및 상대 가상배우 음성 플레이단계(S80) 중 어느 하나 이상의 단계를 수행하는 사용자 종료 대사 판별단계(S110)를 수행한다.In particular, during the user's dialogue, it is necessary to recognize the user's last dialogue. To this end, after performing the relative virtual actor voice play step (S80), among the user dialogues displayed on the dialogue screen 16 by the user dialogue editor 34, the user's voice for the last dialogue of the user dialogue of a scene is input. If it is received, the user is determined by the dialogue of one scene of the user, and the user exits any one or more of the following steps of the opponent virtual actor acting play (S70) and the opponent virtual actor voice play step (S80) for the next opponent virtual actor The metabolic determination step S110 is performed.

이로써 사용자의 한 씬에 대한 대사가 끝나면 가상의 상대 배우의 연기가 다시 시작하고, 가상의 상대배우의 한 씬의 연기가 끝나면 다시 사용자가 연기하는 중에 입력대기를 하며, 또 다시 사용자의 한 씬의 마지막 대사가 입력되면 다시 가상의 상대배우의 연기를 플레이하게 된다.This will allow the virtual actor to start playing once the dialogue is over for the user's scene, and once the scene of the virtual actor finishes playing, the user will wait for input while the user is acting again. When the last line is entered, the player plays a virtual actor's act again.

이처럼 사용자의 연기를 하는 중에, 상기 기본 배경영상 플레이단계(50) 실행 이후의 단계에 따라 상대 가상배우의 연기 및 사용자의 연기에 대해 카메라로 촬영하고 녹음기로 녹음하는 영상 촬영단계(S120)를 수행한다. 그리하여 영상물을 생성하게 된다.As described above, during the user's acting, the camera performs recording of the opponent virtual actor and the user's acting according to the stages after the basic background image play step 50 is performed by the camera and records the recording with the recorder (S120). do. Thus, an image is generated.

아울러 상기 영상 촬영단계(S120)에 의해 생성된 영상물을 디스플레이 화면에 표시하거나 스피커로 출력하거나 또는 메모리에 저장하거나 또는 임시저장장치에 저장하는 영상출력물 생성단계(S130)를 수행한다.In addition, an image output generation step (S130) of displaying the image generated by the image capturing step (S120) on a display screen, outputting to a speaker, storing in a memory, or storing in a temporary storage device is performed.

필요한 경우 생성된 영상물에 대해서 CD, DVD 등으로 제작할 수 있으며, 메모리에 저장하는 등에 의해서 사용자에게 제공할 수 있는 것이다.If necessary, the generated video can be produced by CD, DVD, etc., and can be provided to the user by storing in a memory.

이상으로 본 발명의 실시예에 대하여 상세히 설명하였으나, 이는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 일실시예를 기재한 것이므로, 상기 실시예의 기재에 의하여 본 발명의 기술적 사상이 제한적으로 해석되어서는 아니 된다.The embodiments of the present invention have been described in detail above, but since the embodiments have been described so that those skilled in the art to which the present invention pertains may easily carry out the present invention, The technical spirit of the present invention should not be interpreted limitedly.

12 : 입력장치 13 : 체형 촬영장치
14 : 배경화면 15 : 상대 로봇
16: 대사 스크린 20: 데이터베이스
31: 원음성 추출부 32: 원영상 추출부
33: 가상배우 연기정보 편집부 34: 사용자 대사 편집부
12: input device 13: body type recording device
14: Wallpapers 15: Opposing Robots
16: Metabolic Screen 20: Database
31: original sound extraction unit 32: original image extraction unit
33: virtual actor acting information editor 34: user dialogue editor

Claims (15)

공연, 영화, CF, 뮤직비디오, 및 드라마 중 어느 하나 이상의 원본 영상물의 데이터가 저장되고, 원본 영상물의 대사정보, 인물들의 영상정보에 대한 추출정보가 저장되며, 사용자의 신체 체형정보, 사용자의 음성정보, 사용자를 포함한 촬영정보가 저장되는 데이터베이스;
사용자의 신체정보를 입력하기 위한 입력장치;
사용자를 촬영하기 위한 체형 촬영장치;
원본 영상물이 표시되는 무대의 배경화면;
원본 영상물로부터 인물들의 대사정보를 추출하는 원음성 추출부; 및
원본 영상물로부터 인물들의 영상정보를 추출하는 원영상 추출부를 포함하는 것을 특징으로 하는 컨텐츠 체험관.
Data of any one or more of the original image of the performance, movie, CF, music video, and drama is stored, and metabolic information of the original image, extracting information about the image information of the person, is stored, the user's body shape information, the user's voice A database storing information, photographing information including a user;
An input device for inputting user's body information;
A body type photographing apparatus for photographing a user;
A background screen of the stage on which the original image is displayed;
An original sound extracting unit for extracting metabolic information of persons from an original video object; And
Content experience hall, characterized in that it comprises an original image extraction unit for extracting the image information of the person from the original image.
제 1 항에 있어서,
사용자의 상대역할을 하기 위한 상대 로봇;
무대 주변으로 위치되어 사용자의 대사를 표시하는 대사 스크린;
사용자의 신체 체형에 따라 상대 가상의 배우의 영상물을 편집하여 저장하는 가상배우 연기정보 편집부; 및
사용자의 대사 음성을 입력받아 원본 영상물의 대사로 편집하는 사용자 대사 편집부를 더 포함하는 것을 특징으로 하는 컨텐츠 체험관.
The method of claim 1,
An opponent robot for playing a role of a user;
A dialogue screen positioned around the stage to display the dialogue of the user;
A virtual actor acting information editing unit for editing and storing a video of an opponent's virtual actor according to a user's body type; And
Content experience hall, characterized in that further comprises a user dialogue editing unit for receiving the user's speech voice and editing the dialogue of the original video.
제 2 항에 있어서,
상기 상대 로봇은,
다리, 몸, 및 팔의 관절부를 갖는 인간형 몸체부; 및
상기 인간형 몸체부와 결합되며, 상대 배우 얼굴 형태와 동일한 인간의 얼굴을 갖는 얼굴부를 포함하여 이루어지는 것을 특징으로 하는 컨텐츠 체험관.
The method of claim 2,
The opponent robot,
A humanoid body having joints of the legs, the body, and the arms; And
And a face part coupled to the humanoid body part and having a human face that is the same as the other actor's face shape.
제 3 항에 있어서,
상기 상대 로봇의 얼굴부는 3D 프린터를 통해 제작된 것을 특징으로 하는 컨텐츠 체험관.
The method of claim 3, wherein
The face part of the opponent robot is a content experience hall, characterized in that produced by the 3D printer.
제 4 항에 있어서,
상기 상대 로봇의 얼굴부에는 카메라와 스피커가 구비되는 것을 특징으로 하는 컨텐츠 체험관.
The method of claim 4, wherein
Content experience hall, characterized in that the face portion of the opponent robot is provided with a camera and a speaker.
제 1 항에 있어서,
사용자의 상대역할을 하기 위한 가상의 배우를 생성하는 가상 현실 제공부;
무대 주변으로 위치되어 사용자의 대사를 표시하는 대사 스크린;
사용자의 신체 체형에 따라 상대 가상의 배우의 영상물을 편집하여 저장하는 가상배우 연기정보 편집부; 및
사용자의 대사 음성을 입력받아 원본 영상물의 대사로 편집하는 사용자 대사 편집부를 더 포함하는 것을 특징으로 하는 컨텐츠 체험관.
The method of claim 1,
A virtual reality providing unit generating a virtual actor to play a role of a user;
A dialogue screen positioned around the stage to display the dialogue of the user;
A virtual actor acting information editing unit for editing and storing a video of an opponent's virtual actor according to a user's body type; And
Content experience hall, characterized in that further comprises a user dialogue editing unit for receiving the user's speech voice and editing the dialogue of the original video.
제 1 항에 있어서,
사용자의 상대역할을 하기 위한 가상의 배우를 생성하는 증강 현실 제공부;
무대 주변으로 위치되어 사용자의 대사를 표시하는 대사 스크린;
사용자의 신체 체형에 따라 상대 가상의 배우의 영상물을 편집하여 저장하는 가상배우 연기정보 편집부; 및
사용자의 대사 음성을 입력받아 원본 영상물의 대사로 편집하는 사용자 대사 편집부를 더 포함하는 것을 특징으로 하는 컨텐츠 체험관.
The method of claim 1,
An augmented reality providing unit generating a virtual actor to play a role of a user;
A dialogue screen positioned around the stage to display the dialogue of the user;
A virtual actor acting information editing unit for editing and storing a video of an opponent's virtual actor according to a user's body type; And
Content experience hall, characterized in that further comprises a user dialogue editing unit for receiving the user's speech voice and editing the dialogue of the original video.
데이터베이스에 저장된 공연, 영화, CF, 뮤직비디오, 및 드라마 중 어느 하나 이상의 원본 영상물로부터 인물들의 대사정보를 원음성 추출부에 의해서 추출하여 저장하는 원대사 정보 추출단계;
상기 데이터베이스에 저장된 상기 원본 영상물로부터 인물들의 영상정보를 원영상 추출부에 의해서 추출하여 저장하는 원배우 영상 추출단계;
컨텐츠 체험관을 이용하고자 하는 사용자의 정보를 소정의 입력장치를 통하여 입력하여 상기 데이터베이스에 저장하는 사용자정보 저장단계;
사용자의 신체정보를 입력장치를 통하여 직접 사용자가 입력하여 상기 데이터베이스에 저장하거나 또는 체형 촬영장치를 통하여 사용자를 촬영한 영상정보를 분석하여 사용자의 신체정보를 저장하는 사용자 체형정보 저장단계;
배경화면에 기본 배경영상을 표시하는 기본 배경영상 플레이단계;
무대 주변으로 위치되는 대사 스크린에 사용자가 말하게 될 대사를 표시하는 사용자 대사 스크린 표시단계;
상기 대사 스크린에 표시된 사용자의 대사에 따라 사용자의 음성을 입력받아 상기 데이터베이스에 저장하는 사용자 대사입력단계; 및
상기 기본 배경영상 플레이단계 실행 이후의 단계에 따라 상대 가상배우의 연기 및 사용자의 연기에 대해 카메라로 촬영하고 녹음기로 녹음하는 영상 촬영단계를 포함하여 이루어지는 것을 특징으로 하는 연예인 체험방법.
An original metabolic information extraction step of extracting and storing metabolic information of persons from an original video image of any one or more of a performance, a movie, a CF, a music video, and a drama stored in a database by an original audio extracting unit;
An original actor image extracting step of extracting and storing image information of persons from the original image stored in the database by an original image extracting unit;
A user information storage step of inputting information of a user who wants to use a content experience hall through a predetermined input device and storing the information in a database;
Storing the user's body information by directly inputting the user's body information through the input device and storing the user's body information by storing the user's body information by analyzing the image information photographed by the user through the input device;
A basic background image play step of displaying a basic background image on a wallpaper;
A user dialogue screen display step of displaying a dialogue to be spoken by a user on a dialogue screen positioned around a stage;
A user dialogue input step of receiving a voice of the user according to the dialogue of the user displayed on the dialogue screen and storing the voice in the database; And
According to a step after the execution of the basic background image play step, the celebrity experience method comprising a video recording step of recording with a camera and recording with the recording of the smoke of the opponent virtual actor and the user.
제 8 항에 있어서,
상기 사용자 체형정보 저장단계에 의해서 저장된 사용자의 체형에 따라 상대 가상의 배우의 영상물을 가상배우 연기정보 편집부를 통하여 편집하여 저장하는 가상배우 연기정보 편집단계를 포함하는 것을 특징으로 하는 연예인 체험방법.
The method of claim 8,
And a virtual actor acting information editing step of editing and storing a virtual actor's video through a virtual actor acting information editing unit according to the user's body type stored by the user body type information storing step.
제 8 항에 있어서,
상기 기본 배경영상 플레이단계에 따라 컨텐츠 체험관의 무대 배경화면에 원본 영상물의 배경화면을 표시하면서, 사용자의 상대 배우역할을 하는 인물을 배경화면에 표시하여 상대 배우역할의 인물을 표시하는 상대 가상배우 연기플레이단계; 및
상기 상대 가상배우 연기플레이단계와 함께 무대의 스피커로 상대 가상배우의 대사를 음성으로 발생시키는 상대 가상배우 음성 플레이단계를 포함하는 것을 특징으로 하는 연예인 체험방법.
The method of claim 8,
According to the basic background image play step, while displaying the background image of the original image on the stage background screen of the content experience hall, the person who acts as the other actor of the user on the background screen to display the person of the other actor role acting the virtual actor Play step; And
And an opponent virtual actor voice play step of generating a speech of the opponent virtual actor to the speaker of the stage together with the opponent virtual actor acting play step.
제 8 항에 있어서,
상기 기본 배경영상 플레이단계에 따라 컨텐츠 체험관의 무대 배경화면에 원본 영상물의 배경화면을 표시하면서, 사용자의 상대 배우역할을 하는 인물을 홀로그램 3차원 영상, 아바타, 가상 현실 또는 증강 현실 표시 중 어느 하나 이상으로 상대 배우역할의 인물을 표시하는 상대 가상배우 연기플레이단계; 및
상기 상대 가상배우 연기플레이단계와 함께 무대의 스피커로 상대 가상배우의 대사를 음성으로 발생시키는 상대 가상배우 음성 플레이단계를 포함하는 것을 특징으로 하는 연예인 체험방법.
The method of claim 8,
According to the basic background image play step, at least one of a holographic three-dimensional image, an avatar, a virtual reality, or an augmented reality display of a person who acts as a relative actor of the user while displaying a background image of the original image on a stage background of a content experience hall A virtual actor acting play step of displaying a character of the opponent actor role; And
And an opponent virtual actor voice play step of generating a speech of the opponent virtual actor to the speaker of the stage together with the opponent virtual actor acting play step.
제 8 항에 있어서,
상기 기본 배경영상 플레이단계에 따라 컨텐츠 체험관의 무대 배경화면에 원본 영상물의 배경화면을 표시하면서, 상대 로봇으로 상대 배우 역할을 연기하는 상대 가상배우 연기플레이단계; 및
상기 상대 가상배우 연기플레이단계와 함께 무대의 스피커 또는 로봇의 스피커로 상대 가상배우의 대사를 음성으로 발생시키는 상대 가상배우 음성 플레이단계를 포함하는 것을 특징으로 하는 연예인 체험방법.
The method of claim 8,
An acting virtual actor acting to play the role of the opponent actor as the opponent robot while displaying the background image of the original video on the stage background of the content experience hall according to the basic background image playing step; And
And the opponent virtual actor voice play step of generating a speech of the opponent virtual actor to the speaker of the stage or the speaker of the robot together with the opponent virtual actor acting play step.
제 8 항에 있어서,
상기 상대 가상배우 음성 플레이단계의 수행 이후, 사용자 대사 편집부에 의하여 상기 대사 스크린에 표시된 사용자 대사 중에서, 한 씬의 사용자 대사의 마지막 대사에 대한 사용자의 음성을 입력받은 경우 해당 사용자의 한 씬의 대사로 판별하고, 다음의 상대 가상배우에 대한 상기 상대 가상배우 연기플레이단계 및 상대 가상배우 음성 플레이단계 중 어느 하나 이상의 단계를 수행하는 사용자 종료 대사 판별단계를 포함하는 것을 특징으로 하는 연예인 체험방법.
The method of claim 8,
After performing the relative virtual actor voice play step, when the user's voice is input from the user dialogue displayed on the dialogue screen by the user dialogue editor, the user's voice for the last dialogue of the user dialogue of one scene is used as the dialogue of the scene of the corresponding user. And determining a user-terminated dialogue to perform one or more of the following steps of the opponent virtual actor acting play and the opponent virtual actor voice play for the next opponent virtual actor.
제 8 항에 있어서,
상기 영상 촬영단계에 의해 생성된 영상물을 디스플레이 화면에 표시하거나 스피커로 출력하거나 또는 메모리에 저장하거나 또는 임시저장장치에 저장하는 영상출력물 생성단계를 포함하는 것을 특징으로 하는 연예인 체험방법.
The method of claim 8,
And an image output generation step of displaying the image generated by the image photographing step on a display screen, outputting to a speaker, storing in a memory, or storing in a temporary storage device.
제 11 항에 있어서,
상기 아바타를 이용하여 상대 배우 역할을 표시하는 단계는,
촬영된 영상으로부터 사용자의 얼굴에 대한 표정 변화를 감지할 수 있는 표정 특징점을 추적하는 단계;
미리 저장된 3D 모션 캡쳐 데이터들로부터 추출된 제1 맵핑 특징(mapping feature) 및 상기 표정 특징점으로부터 추출된 제2 맵핑 특징을 이용하여 상기 사용자의 얼굴에 대한 표정 변화를 재구성하는 단계;
상기 표정 특징점의 좌표를 상기 사용자의 얼굴에 대응되는 아바타(avatar)를 제어하기 위한 페이스 메쉬(facemesh) 상의 제어 좌표로 전환하는 단계; 및 상기 제어 좌표를 이용하여 상기 아바타에 상기 사용자의 표정 변화가 나타나도록 3D 얼굴 애니메이션을 구성하는 단계로 이루어지는 것을 특징으로 하는 연예인 체험방법.
The method of claim 11,
Displaying the role of the opponent actor using the avatar,
Tracking a facial feature point capable of detecting a change in facial expression of a user's face from the captured image;
Reconstructing a facial expression change for the user's face using a first mapping feature extracted from prestored 3D motion capture data and a second mapping feature extracted from the facial expression feature point;
Converting coordinates of the facial expression feature points to control coordinates on a face mesh for controlling an avatar corresponding to the face of the user; And constructing a 3D face animation such that the user's facial expression changes in the avatar using the control coordinates.
KR1020180102432A 2018-08-30 2018-08-30 System and method for entertainer experience KR20200025285A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180102432A KR20200025285A (en) 2018-08-30 2018-08-30 System and method for entertainer experience

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180102432A KR20200025285A (en) 2018-08-30 2018-08-30 System and method for entertainer experience

Publications (1)

Publication Number Publication Date
KR20200025285A true KR20200025285A (en) 2020-03-10

Family

ID=69801106

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180102432A KR20200025285A (en) 2018-08-30 2018-08-30 System and method for entertainer experience

Country Status (1)

Country Link
KR (1) KR20200025285A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102412595B1 (en) * 2021-09-09 2022-06-24 주식회사 치즈앤 Method and device for providing special film production service using 3d character
KR102443705B1 (en) * 2022-06-30 2022-09-19 주식회사 에이펀인터렉티브 Interaction support robot and metaverse content creation system including the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100724620B1 (en) 2005-01-03 2007-06-04 김재윤 Entertainer experience stage
KR20120012292A (en) 2010-07-30 2012-02-09 이윤열 The sightseeing experiencing simulator device and the using method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100724620B1 (en) 2005-01-03 2007-06-04 김재윤 Entertainer experience stage
KR20120012292A (en) 2010-07-30 2012-02-09 이윤열 The sightseeing experiencing simulator device and the using method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102412595B1 (en) * 2021-09-09 2022-06-24 주식회사 치즈앤 Method and device for providing special film production service using 3d character
KR102443705B1 (en) * 2022-06-30 2022-09-19 주식회사 에이펀인터렉티브 Interaction support robot and metaverse content creation system including the same

Similar Documents

Publication Publication Date Title
JP4310916B2 (en) Video display device
US5830065A (en) User image integration into audiovisual presentation system and methodology
US7137892B2 (en) System and methodology for mapping and linking based user image integration
JPH11219446A (en) Video/sound reproducing system
US20100201693A1 (en) System and method for audience participation event with digital avatars
US8958686B2 (en) Information processing device, synchronization method, and program
JP2007027990A (en) Apparatus and method, and program for generating caption from moving picture data, and storage medium
KR102028139B1 (en) Method for displaying image using augmented reality
US20090280897A1 (en) Method and Apparatus for Producing Interactive Video Content
JP5169111B2 (en) Composite image output apparatus and composite image output processing program
JP2007101945A (en) Apparatus, method, and program for processing video data with audio
JP5137031B2 (en) Dialogue speech creation device, utterance speech recording device, and computer program
KR20200025285A (en) System and method for entertainer experience
JP2010252008A (en) Imaging device, displaying device, reproducing device, imaging method and displaying method
JP2009086785A (en) Composite image output device and composite image output processing program
CN117252966B (en) Dynamic cartoon generation method and device, storage medium and electronic equipment
CN110213560A (en) A kind of immersion video broadcasting method and system
AU2021221475A1 (en) System and method for performance in a virtual reality environment
JP2010532610A (en) Method for generating sound sequence of a plurality of photographs and device for generating and reproducing the sound sequence
JP4962219B2 (en) Composite image output apparatus and composite image output processing program
JP6313003B2 (en) Karaoke apparatus, image output method, and program
JP2012093913A (en) Cg character production device and cg character production program
JP5310682B2 (en) Karaoke equipment
JP2009059014A (en) Composite image output device and composite image output processing program
JP4983494B2 (en) Composite image output apparatus and composite image output processing program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application