KR20210144433A - 가상공간 촬영장치 및 촬영방법 - Google Patents

가상공간 촬영장치 및 촬영방법 Download PDF

Info

Publication number
KR20210144433A
KR20210144433A KR1020200061791A KR20200061791A KR20210144433A KR 20210144433 A KR20210144433 A KR 20210144433A KR 1020200061791 A KR1020200061791 A KR 1020200061791A KR 20200061791 A KR20200061791 A KR 20200061791A KR 20210144433 A KR20210144433 A KR 20210144433A
Authority
KR
South Korea
Prior art keywords
user
virtual space
character
user character
information
Prior art date
Application number
KR1020200061791A
Other languages
English (en)
Inventor
김주복
Original Assignee
주식회사 넥슨코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥슨코리아 filed Critical 주식회사 넥슨코리아
Priority to KR1020200061791A priority Critical patent/KR20210144433A/ko
Publication of KR20210144433A publication Critical patent/KR20210144433A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • H04N5/232935
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N5/232939
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 명세서에서 개시되는 실시예들은 촬영장치 및 촬영방법에 관한 것으로, 일 실시예에 따르면 제1유저 캐릭터가 위치하는 가상공간을 촬영하는 촬영장치로서, 제2유저 단말로부터 획득된 제2유저의 외관정보에 기초하여 상기 가상공간 내에 위치하는 제2유저 캐릭터를 제어하는 제어부, 및 상기 가상공간에 대응되는 촬영정보를 저장하는 저장부를 포함할 수 있다.

Description

가상공간 촬영장치 및 촬영방법{METHOD AND APPARATUS FOR PHOTOGRAPHING VIRTUAL SPACE}
본 명세서에서 개시되는 실시예들은 촬영장치 및 촬영방법에 관한 것으로서, 보다 구체적으로는 캐릭터가 등장하는 가상공간을 촬영하기 위한 장치 및 방법에 관한 것이다.
최근 들어 미세 기계 구조를 가공하는 기술의 발달로 전자단말에 탑재 가능한 센서들의 종류가 확대되고 있다. 즉, 스마트폰, 태블릿 컴퓨터 또는 VR기기와 같은 전자단말에는 다양한 애플리케이션에 이용하기 위하여 각종 센서들이 탑재되고 있는데, 예를 들어, 전자단말에는 카메라, 마이크로폰, 가속 센서, 중력 센서, 근접 센서, 지자기 센서, 자이로스코프 각속도 센서 등이 내장되어 있다.
한편 그래픽 관련 기술 또는 가상 현실 기술의 발달로 인하여 유무선 단말 등을 통해 정교한 모습의 캐릭터나 현실감있는 가상공간이 제공되고 있다. 이로 말미암아 유저는 게임, 영화, 스포츠, 교육, e커머스 등의 콘텐츠를 현실감있게 즐길 수 있게 되었다.
이와 같이 가상공간을 제공하는 콘텐츠가 매일 다양하게 쏟아져나오고 있기 때문에 유저들은 그래픽의 정교함의 정도에 따라 콘텐츠의 소비에 참여하게 된다. 그리고 이러한 유저들의 성향을 고려하여 콘텐츠 제작자들 또한 가상공간 또는 가상공간에 등장하는 객체의 제작에 노력을 기울인다.
그러나 이러한 유저의 관심과 제작자의 노력에도 불구하고, 심혈을 기울여 제작된 가상공간은 가상공간이 표시될 때 소비되는 것에 그칠 뿐, 그 이상으로 활용되고 있지 못하다.
관련하여 한국 공개특허 제 10-2014-0088274 호 '게임 플레이 영상 공유 방법 및 서버'에 따르면, 상술한 선행 기술은 콘텐츠 생성자에 의해 소정 게임이 수행되는 동안 녹화된 플레이 영상을 수집하고 게시하는 기능을 제시하고 있다.
그러나 상술한 선행 기술을 비롯한 종래의 기술들은 게임영상을 녹화하는데 그치고 있다. 이에 가상공간을 보다 효율적으로 유저가 소비할 수 있도록 하면서, 가상공간이 적용된 콘텐츠, 예를 들어 게임에 대한 유저의 만족도를 향상시키기 위한 새로운 차원의 기술의 개발이 필요하게 되었다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 명세서에서 개시되는 실시예들은, 가상공간을 촬영하는 촬영장치 및 촬영방법을 제시하는 데에 목적이 있다.
일 실시예들은, 유저의 표정, 모습 또는 움직임을 반영한 유저 캐릭터가 등장하는 가상공간을 촬영하는 촬영장치 및 촬영방법을 제시하는 데에 목적이 있다.
또 다른 실시예들은, 유저 캐릭터와 함께 가상공간에 위치하고 있는 타 유저의 캐릭터를 유저 캐릭터와 함께 촬영할 수 있도록 하는 촬영장치 및 촬영방법을 제시하는 데에 목적이 있다.
다른 실시예들은, 유저 캐릭터와 함께 가상공간에 위치하고 있는 타 유저의 캐릭터를, 타 유저의 표정, 모습 또는 움직임을 반영하여 제어되도록 하는 촬영장치 및 촬영방법을 제시하는 데에 목적이 있다.
다른 실시예들은, 타 유저의 표정, 모습 또는 움직임을 반영한 타 유저 캐릭터를 유저로 하여금 확인할 수 있도록 하고 촬영할 수 있도록 하는 촬영장치 및 촬영방법을 제시하는 데에 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 제1유저 캐릭터가 위치하는 가상공간을 촬영하는 촬영장치로서, 제2유저 단말로부터 획득된 제2유저의 외관정보에 기초하여 상기 가상공간 내에 위치하는 제2유저 캐릭터를 제어하는 제어부, 및 상기 가상공간에 대응되는 촬영정보를 저장하는 저장부를 포함할 수 있다.
또 다른 실시예에 따르면, 제1유저 캐릭터가 위치하는 가상공간을 촬영하는 촬영장치가 수행하는 촬영방법으로서, 상기 가상공간에 대한 촬영 요청을 획득하는 단계, 상기 가상공간에 대한 촬영정보를 생성하되, 제2유저 단말로부터 획득된 제2유저의 외관정보에 기초하여 상기 가상공간 내에 위치하는 제2유저 캐릭터를 제어하는 단계, 및 상기 촬영정보를 저장하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, 촬영방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체로서, 상기 촬영방법은 가상공간에 대한 촬영 요청을 획득하는 단계, 상기 가상공간에 대한 촬영정보를 생성하되, 제2유저 단말로부터 획득된 제2유저의 외관정보에 기초하여 상기 가상공간 내에 위치하는 제2유저 캐릭터를 제어하는 단계, 및 상기 촬영정보를 저장하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, 촬영방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램으로서, 상기 촬영방법은 가상공간에 대한 촬영 요청을 획득하는 단계, 상기 가상공간에 대한 촬영정보를 생성하되, 제2유저 단말로부터 획득된 제2유저의 외관정보에 기초하여 상기 가상공간 내에 위치하는 제2유저 캐릭터를 제어하는 단계, 및 상기 촬영정보를 저장하는 단계를 포함할 수 있다.
전술한 과제 해결 수단 중 어느 하나에 따르면, 가상공간을 촬영하는 촬영장치 및 촬영방법이 제시된다. 이를 통해 현실세계에서의 셀피모드 등과 같이 가상공간에서의 캐릭터 셀피모드 등을 지원해줄 수 있다.
전술한 과제 해결 수단 중 어느 하나에 따르면, 유저의 표정, 모습 또는 움직임을 반영한 유저 캐릭터가 등장하는 가상공간을 촬영할 수 있도록 한다. 이를 통해 유저는 자신의 캐릭터가 방문한 가상공간에 대한 추억을 남길 수 있으며, 유저 캐릭터가 유저의 표정, 모습 또는 움직임을 반영함에 따라 보다 현실감 있는 추억을 남길 수 있다.
전술한 과제 해결 수단 중 어느 하나에 따르면, 유저 캐릭터와 함께 가상공간에 위치하고 있는 타 유저의 캐릭터를 유저 캐릭터와 함께 촬영할 수 있도록 한다.
전술한 과제 해결 수단 중 어느 하나에 따르면, 유저 캐릭터와 함께 가상공간에 위치하고 있는 타 유저의 캐릭터를, 타 유저의 표정, 모습 또는 움직임을 반영하여 제어되도록 한다.
전술한 과제 해결 수단 중 어느 하나에 따르면, 타 유저의 표정, 모습 또는 움직임을 반영한 타 유저 캐릭터를 유저로 하여금 확인할 수 있도록 하고 촬영할 수 있도록 한다. 이를 통해 유저는 타 유저와의 결속력을 느낄 수 있다.
전술한 과제 해결 수단 중 어느 하나에 따르면, 유저 단말 또는 타 유저 단말에 포함된 입출력부의 기능을 활용하여 콘텐츠에 대한 유저의 흥미를 향상시킬 수 있다.
개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1 은 일 실시예에 따른 촬영장치를 도시한 블록도이다.
도 2 내지 도 6은 본 명세서에 기재된 일실시예에 따른 제어부의 동작을 설명하기 위한 예시도이다.
도 7 내지 도 8은 일 실시예에 따른 촬영방법을 설명하기 위한 순서도이다.
아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우 뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.
이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.
다만 이를 설명하기에 앞서, 아래에서 사용되는 용어들의 의미를 먼저 정의한다.
먼저, 이하에서 '가상공간'은 2 차원 그래픽 또는 3 차원 그래픽으로 표현되고 가상공간 내에 위치한 객체들이 이동할 수 있는 일정한 범위의 영역을 포함한다. 이러한 가상공간은 게임이 이루어지는 게임공간으로 구현될 수 있으며, 예를 들어, 하나의 게임에서는 서로 달리 설계된 복수의 가상공간이 선택적으로 제공될 수 있고, 각각의 유저가 이 중 하나를 선택하도록 하거나 각 유저의 게임 수준에 따라 일부의 가상공간으로만 접근 가능하게 할 수 있다.
'객체'는 상술한 가상공간 내에 배치되는 그래픽 객체들을 지시한다. 특히 유저의 제어에 의하여 선택되거나, 이동되거나, 상태가 변경되는 객체, 즉 유저의 제어 대상들을 포함한다. 예를 들어, 캐릭터 등이 될 수 있다. 또한 상술한 가상공간 내에 배치되는 그래픽 객체 중에서, 유저에 의하여 제어되지 않고 자체의 설정에 의해 자동으로 이동되거나 상태가 변경되는 객체들을 포함할 수 있다. 예를 들어, 지형지물 등이 될 수 있다.
위에 정의한 용어 이외에 설명이 필요한 용어는 아래에서 각각 따로 설명한다.
도 1 은 일 실시예에 따른 촬영장치를 도시한 블록도이다.
촬영장치(100)는 가상공간을 촬영하여 가상공간에 대한 이미지 또는 가상공간에 대한 동영상을 생성하고 이를 유저에게 제공해줄 수 있다. 또한 촬영장치(100)는 가상공간 내에 위치한 캐릭터를 유저의 입력에 기초하여 제어할 수 있다.
이러한 촬영장치(100)는 게임제공장치(미도시)에 포함되거나 게임제공장치(미도시)를 포함할 수 있으며, 또는 게임제공장치(미도시)와 별개로 구현되어 게임제공장치(미도시)와 통신할 수 있다.
게임제공장치(100)는 가상공간으로 구현된 게임공간에 관한 정보, 가상공간 내에 위치하는 캐릭터 정보, 게임 시나리오 정보, 게임 퀘스트 정보, 아이템 정보든 게임 진행과 관련된 각종 정보를 저장하며 게임 내에서 발생되는 다양한 이벤트를 감지하고 기록하여 게임의 시계열적 진행을 가능하게 한다. 게임제공장치(미도시)는 게임제공장치(미도시)에 대한 유저의 입력을 수신하고, 게임정보에 따라 게임제공장치(미도시)에서 게임 진행과 관련된 각종 정보를 저장할 수 있다.
한편 촬영장치(100)는 전자단말로 구현되거나 또는 서버-클라이언트 시스템으로 구현될 수 있으며, 상기 시스템은 유저와의 인터랙션을 위한 온라인 서비스용 애플리케이션이 설치된 전자단말을 포함할 수 있다.
이때 전자단말은 네트워크를 통해 원격지의 서버에 접속하거나, 타 단말 및 서버와 연결 가능한 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 유저 단말과 연결될 수 있다.
그리고 서버는 유저와의 인터랙션을 위한 애플리케이션이나 웹브라우저가 설치된 전자단말과 네트워크를 통해 통신이 가능한 컴퓨터로 구현되거나 클라우드 컴퓨팅 서버로 구현될 수 있다. 또한, 서버는 데이터를 저장할 수 있는 저장장치를 포함하거나 제 3의 서버를 통해 데이터를 저장할 수 있다. 또한, 서버는 타 유저 단말과 통신할 수 있다.
상술된 바와 같이 촬영장치(100)는 전자단말 또는 서버-클라이언트 시스템 중 어느 하나의 형태로 구현될 수 있으며, 서버로 구현될 경우, 촬영장치(100)를 구성하는 구성부는 물리적으로 분리된 복수의 서버에서 수행되거나 하나의 서버에서 수행될 수 있다.
실시예에 따른 촬영장치(100)는 저장부(110), 통신부(120), 입출력부(130) 및 제어부(140)를 포함할 수 있다.
저장부(110)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 후술될 제어부(140)는 저장부(110)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 저장부(110)에 저장할 수도 있다. 또한, 제어부(140)는 저장부(110)에 설치된 프로그램을 실행할 수도 있다. 예를 들어, 저장부(110)는 본 명세서에 기재된 일 실시예에 따른 촬영방법을 수행하기 위한 프로그램이 설치될 수 있다.
또한 예를 들어, 저장부(110)는 촬영장치(100)가 생성한 촬영정보를 저장할 수 있다. 이때 '촬영정보'는 유저에 의해 촬영이 요청되어 유저에게 표시되는 화면의 적어도 일부를 촬영된 이미지 또는 동영상일 수 있다. 저장부(110)는 촬영정보를 유저에게 표시해주기 위해 일시적으로 저장하거나, 또는 촬영 시점 이후에도 유저가 열람할 수 있도록 저장할 수 있다.
반면 통신부(120)는 다른 단말 또는 네트워크와 유무선 통신을 수행할 수 있다. 가령 통신부(120)는 타 단말과 통신하여 타 단말로부터 외관정보를 획득할 수 있다. 이를 위해, 통신부(120)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.
이때, 통신부(120)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication) 등일 수 있다. 또한, 통신부(120)가 지원하는 유선 통신은, 예를 들어 USB 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다.
일 실시예에 따르면, 통신부(120)는 촬영장치(100)와 통신하는 타 유저 단말로부터 관찰데이터 또는 외관정보를 수신할 수 있다. 이때 타 유저 다말은 통신부(120)로 관찰데이터 또는 외관정보를 스트리밍할 수 있고, 스트리밍된 정보를 통신부(120)는 수신할 수 있다. 또한 통신부(120)는 수신된 관찰데이터 또는 외관정보에 기초하여 제어되는 타 유저 캐릭터에 관한 정보를 상기 타 유저 단말로 송신할 수도 있다.
관련하여 '외관정보'는 캐릭터를 제어하는 유저의 외관에 관한 제반정보로서, 유저의 표정에 관한 정보, 유저의 모습에 관한 정보, 유저의 움직임에 관한 정보 등을 포함한다. 이러한 외관정보는 캐릭터의 외관에 적용되어 가상공간 내에서의 캐릭터의 표정, 모습 또는 움직임을 변화시킬 수 있다.
외관정보는 유저에 의해 제어되는 유저 단말에 의해 획득되는 관찰데이터에 기반하여 생성될 수 있다. '관찰데이터'는, 예를 들어 유저 단말에 포함된 카메라에 의해 촬영된 유저의 표정에 관한 정보, 유저의 모습에 관한 정보, 또는 유저의 움직임에 관한 정보를 포함할 수 있으며, 또는 예를 들어 유저 단말에 장착된 각종 센서로 인해 감지된 유저 단말의 움직임에 따라 유저의 움직임에 관한 정보를 포함할 수 있다. 관찰데이터는 유저의 입력을 획득할 수 있는 입력부의 적어도 하나의 조합을 통해 획득 가능하며 예를 들어 카메라와 자이로 센서가 함께 동작하여 획득할 수 있다.
따라서 예를 들어 촬영장치(10)는, 관찰데이터가 유저의 표정을 촬영한 이미지인 경우 상기 이미지를 분석하여 유저가 웃는 얼굴이라 판단되면 웃는 얼굴에 대응되는 외관정보를 생성할 수 있다. 또한 예를 들어, 촬영장치(10)는 관찰데이터가 유저 단말의 이동에 관한 것이어서 유저 단말의 화면 방향으로 유저 단말이 움직였다가 원래 자리로 돌아옴을 감지하면 유저가 점프했다고 판단하고 이에 대응되는 외관정보를 생성할 수 있다.
한편, 입출력부(130)는 유저로부터 입력을 수신하기 위한 입력부와 작업의 수행 결과 또는 촬영장치(100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어 입출력부(130)는 유저의 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.
구체적으로 입력부는 키보드, 물리 버튼, 터치 스크린, 카메라, 센서 또는 마이크 등과 같이 다양한 형태의 입력을 수신할 수 있는 장치들을 포함할 수 있다. 따라서, 예를 들어 카메라를 통해 유저의 표정 또는 모습을 촬영함에 따라 유저의 표정 또는 모습에 대응되는 관찰데이터를 입력 받을 수 있고, 또는 예를 들어 자이로 센서, 가속도 센서, 생체 센서 등을 통해 유저의 움직임에 관한 관찰데이터를 입력 받을 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(130)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.
실시예에 따르면, 입력부는 가상공간 내에 위치한 유저 캐릭터에 대한 입력을 유저로부터 수신할 수 있고, 또한, 출력부는 유저의 입력에 따른 연산의 결과를 출력하여 제공할 수 있다.
한편 제어부(140)는 촬영장치(100)의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. 제어부(140)는 본 명세서에 기재된 촬영방법을 수행하도록 촬영장치(100)에 포함된 다른 구성들을 제어할 수 있다. 예를 들어, 제어부(140)는 저장부(110)에 저장된 프로그램을 실행시키거나, 저장부(110)에 저장된 파일을 읽어오거나, 새로운 파일을 저장부(110)에 저장할 수도 있다.
관련하여 제어부(140)는 도 2 내지 도 6을 참조하여 설명된다. 도 2 내지 도 6은 본 명세서에 기재된 일실시예에 따른 제어부(140)의 동작을 설명하기 위한 예시도로서, 유저 캐릭터(A)가 위치한 가상공간을 표시하는 유저 단말(U)의 화면(D)을 도시한 것이다.
실시예에 따르면, 제어부(140)는 가상공간에 대한 촬영정보를 생성할 수 있다.
예를 들어 제어부(140)는 입출력부(130)를 통해 유저에게 표시되는 가상공간에 대한 화면 중 적어도 일부를 포함하는 스크린 샷, 또는 녹화를 수행하여 이미지 또는 동영상을 촬영정보로서 생성할 수 있다.
예를 들어 제어부(140)는 입출력부(130)를 통해 유저에게 표시되는 화면 전체를 녹화한 동영상을 촬영정보로서 생성할 수 있고, 또는 예를 들어 제어부(140)는 입출력부(130)를 통해 유저에게 표시되는 화면 중에서, 유저 캐릭터의 아이템(예를 들어 카메라 아이템)을 통해 표시되는 화면을 캡쳐한 이미지를 촬영정보로서 생성할 수 있다.
또한 제어부(140)는 가상공간 내에 위치하는 객체들도 함께 촬영할 수 있으며, 입출력부(130)를 통해 유저에게 표시되는 객체를 상기 객체가 위치하는 가상공간과 함께 스크린 샷 또는 녹화를 수행하여 이미지 또는 동영상을 생성할 수 있다.
관련하여 제어부(140)는 입출력부(130)를 통해 획득되는 관찰데이터에 따라 촬영대상을 변경할 수 있다.
예를 들어 자이로 센서 등을 통해 가상공간을 바라보는 유저의 시점이 변경됨을 감지하면, 제어부(140)는 변경된 시점에서의 가상공간을 제공하고 제공된 가상공간에 대한 촬영정보를 생성할 수 있다. 또는 예를 들어 가상스틱 등의 인터페이스를 제공하고, 인터페이스에 대한 유저 입력에 따라 유저의 시점이 변경됨을 감지하면 제어부(140)는 변경된 시점에서의 가상공간을 제공하고, 제공된 가상공간에 대한 촬영정보를 생성할 수 있다.
또한 제어부(140)는 유저의 표정, 모습 또는 움직임을 트래킹하여 획득한 관찰데이터를 기반으로, 유저 캐릭터를 모델링할 수 있는 외관정보를 획득하여 외관정보에 따라 모델링된 유저 캐릭터를 제공할 수 있다.
즉 제어부(140)는 유저의 표정, 유저의 모습 및 유저의 움직임 중 적어도 하나를 유저 캐릭터에 적용하여 제공할 수 있고, 그에 따라 촬영정보를 생성할 때 해당 시점에서의 유저의 표정, 유저의 모습 및 유저의 움직임 중 적어도 하나를 유저 캐릭터에 반영하여 생성할 수 있다.
또한 실시예에 따르면 제어부(140)는 가상공간에 대한 촬영이 수행되는 도중이면, 이와 관련된 정보를 유저 또는 타 유저에게 제공해줄 수 있다. 예를 들어 촬영 중임을 나타내는 아이콘을 유저 캐릭터 주변에 함께 표시할 수 있다.
한편 실시예에 따르면, 제어부(140)는 유저의 관찰데이터를 획득하여 외관정보를 생성할 수 있다.
예를 들어, 입출력부(130)인 카메라가 유저를 촬영하면서 유저의 얼굴 영역을 검출하고 검출된 얼굴 영역에서 특징점 정보를 검출하여 유저의 표정 변화를 감지하면, 감지된 정보를 관찰데이터로서 획득할 수 있고, 상기 관찰데이터를 기반으로 유저 캐릭터를 모델링할 수 있는 외관정보를 생성할 수 있다.
따라서 예를 들어, 유저가 카메라를 통해 무표정에서 웃는 표정으로 바꾸었을 때 제어부(140)는 유저의 표정 변경의 전후에 따라 표정이 변경되는 유저 캐릭터를 모델링할 수 있다.
현실에서의 유저가 웃고 있다면, 도 2에서 도시된 바와 같이 제어부(140)는 웃는 얼굴의 유저 캐릭터(A)를 가상공간 내에 표시해줄 수 있다. 그리고 제어부(140)는 유저 단말(U)의 화면(D)을 통해 표시되는 가상공간을 촬영하여 촬영정보를 생성할 수 있다. 그에 따라 유저는 자신의 유저 캐릭터(A)를 자신과 동일시시킬 수 있어 마치 가상공간 내에 자신이 존재하고 있음을 느낄 수 있다.
관련하여 본 명세서에서는 설명의 편의상 촬영장치(100)와 통신하는 타 단말의 유저를 제2유저라 칭하고, 제2유저와 구분되도록 촬영장치(100)를 제어하는 유저를 제1유저라 칭한다. 이에 제2유저에 의해 제어되는 단말을 제2유저 단말이라 칭하며, 제1유저 및 제2유저 각각에 대응되는 캐릭터를 제1유저 캐릭터 및 제2유저 캐릭터라 칭한다.
실시예에 따르면, 제어부(140)는 소정의 조건이 만족되었을 때 제1유저의 관찰데이터를 획득하여 제1유저의 외관정보를 생성할 수 있다. 그리고 제어부(140)는 외관정보에 기초하여 가상공간 내 제1유저 캐릭터를 제어할 수 있다. 제1유저의 관찰데이터를 획득하기 위해 제어부(140)는 입출력부(130)를 제어할 수 있다.
일 실시예에 따르면, 제어부(140)는 제1유저 캐릭터가 가상공간 내 소정의 영역 내에 위치하면 제1유저의 외관정보를 생성하고 외관정보에 기초하여 제1유저 캐릭터를 제어할 수 있다.
예를 들어 가상공간 내에 특정 영역으로 제1유저 캐릭터가 진입하면 제어부(140)는 제1유저의 표정, 모습, 및 움직임 중 적어도 하나에 관한 정보인 관찰데이터를 획득하고, 제1유저 캐릭터의 모델링을 위한 외관정보를 생성하며, 그에 따라 제1유저 캐릭터를 제어할 수 있다.
또 다른 실시예에 따르면, 제어부(140)는 제1유저가 촬영장치(100)에 대해 입력함을 감지하면 제1유저의 외관정보를 생성하고 외관정보에 기초하여 제1유저 캐릭터를 제어할 수 있다.
구체적으로 예를 들자면, 제어부(140)는 제1유저에 대응되는 관찰데이터를 획득하면 제1유저의 외관정보를 생성하고 외관정보에 기초하여 제1유저 캐릭터를 제어할 수 있다.
즉 예를 들어 제어부(140)는 제1유저가 카메라 실행을 요청하면 카메라를 통해 유저의 표정, 모습 및 움직임 중 적어도 하나에 관한 정보인 관찰데이터를 획득하고, 제1유저 캐릭터의 모델링을 위한 외관정보를 생성하며, 그에 따라 제1유저 캐릭터를 제어할 수 있다. 따라서 예를 들어 제1유저가 카메라를 실행시켜 v자 포즈를 취한다면 제어부(140)는 제1유저 캐릭터가 v자 포즈를 취하도록 제어할 수 있다.
또는 예를 들어 제어부(140)는 센서를 통해 제1유저의 움직임이 감지되면 센서를 통해 감지된 유저의 움직임에 관한 정보인 관찰데이터를 획득하고, 제1유저 캐릭터의 모델링을 위한 외관정보를 생성하며, 그에 따라 제1유저 캐릭터를 제어할 수 있다. 따라서 예를 들어 자이로 센서를 통해 제1유저가 점프했음을 감지하면 제어부(140)는 제1유저 캐릭터가 점프하도록 제어할 수 있다.
또는 예를 들어 제어부(140)는 제1유저가 카메라 실행을 요청하되, 후면카메라의 실행을 요청한 상태에서, 센서를 통해 제1유저의 움직임이 감지되면, 센서를 통해 감지된 유저의 움직임에 관한 정보인 관찰데이터를 획득하고, 제1유저 캐릭터의 모델링을 위한 외관정보를 생성하며, 그에 따라 제1유저 캐릭터를 제어할 수 있다. 그에 따라 제1유저 캐릭터가 마치 카메라를 들고 있는 상태에서 제1유저 캐릭터 주변을 촬영하는 모습으로 모델링되도록 제1유저 캐릭터를 제어할 수 있다.
또 다른 예를 들자면, 제어부(140)는 제1유저로부터 제1유저 캐릭터에 대한 제어 입력을 획득하면 제1유저의 외관정보를 생성하고 외관정보에 기초하여 제1유저 캐릭터를 제어할 수 있다.
예를 들어 제어부(140)는 제1유저로부터 제1유저 캐릭터에 대응되는 인터페이스 중에서 촬영을 요청하는 입력을 받으면, 제1유저의 외관정보를 생성하고 외관정보에 기초하여 제1유저 캐릭터를 제어할 수 있다.
또한 예를 들어 제1유저가 제1유저 캐릭터를 화면을 통해 터치 입력을 하였음을 감지하거나, 또는 예를 들어 제1유저가 제1유저 캐릭터로 하여금 소정의 동작을 수행하도록 하였을 때 제어부(140)는 입출력부(130)를 통해 관찰데이터를 획득하고 제1유저 캐릭터의 모델링을 위한 외관정보를 생성하며, 그에 따라 제1유저 캐릭터를 제어할 수 있다.
이와 같이 제1유저의 표정, 모습 또는 움직임이 반영된 제1유저 캐릭터를 제공하고 이러한 제1유저 캐릭터가 존재하는 가상공간을 촬영하도록 함으로써 촬영장치(100)는 제1유저가 셀피를 찍는듯한 느낌을 제공해줄 수 있으며, 또한 제1유저 캐릭터가 위치하는 가상공간을 현실감있게 촬영하는 느낌을 제공해줄 수 있다. 이를 통해 가상공간에 대한 유저의 애착도를 향상시킬 수 있다.
한편 실시예에 따르면, 제어부(140)는 제2유저 단말로부터 관찰데이터 및 외관정보 중 적어도 하나를 획득할 수 있다.
일 실시예에 따르면 제어부(140)는 제2유저 단말로부터 외관정보를 획득할 수 있다.
예를 들어 제어부(140)는 제2유저 캐릭터를 모델링하기 위한 외관정보를 통신부(120)를 통해 제2유저 단말로부터 획득할 수 있다.
또 다른 실시예에 따르면 제어부(140)는 제2유저 단말로부터 관찰데이터를 획득하고, 관찰데이터에 기반하여 타 유저 단말의 캐릭터에 적용될 외관정보를 생성할 수 있다.
예를 들어, 제어부(140)는 제2유저의 표정, 모습 또는 움직임에 관한 관찰데이터를 통신부(120)를 통해 획득하고, 관찰데이터에 기초하여 제2유저 캐릭터를 모델링하기 위한 외관정보를 생성할 수 있다. 따라서 예를 들어 제2유저가 제2유저 단말에서의 카메라를 실행시켜 자신의 모습을 동영상으로 촬영했다면 촬영한 정보는 관찰데이터로서 제어부(140)가 획득할 수 있으며, 제어부(140)는 촬영 동영상을 분석하여 제2유저가 팔을 올렸다 내렸음을 판단하고 제2유저 캐릭터의 팔 움직임이 제어되도록 외관정보를 생성할 수 있다.
이하에서는 설명의 편의상, 제어부(140)가 제2유저 단말로부터 외관정보를 획득했다는 것은, 제2유저 단말로부터 관찰데이터 및 외관정보 중 적어도 하나를 획득했다는 것을 의미하는 것으로 사용된다.
그리고 제어부(140)는 획득한 제2유저의 외관정보에 기초하여 제2유저 캐릭터를 제어할 수 있다. 제2유저의 외관정보에 기초하여 제2유저 캐릭터를 제어하는 기술은 제1유저의 외관정보에 기초하여 제1유저 캐릭터를 제어하는 것과 동일하므로 이하에서는 설명을 생략한다. 이를 통해 제어부(140)는 제1유저에게 표시되는 제2유저 캐릭터에, 제2유저의 표정, 모습 또는 움직임이 합성된 것처럼 구현할 수 있다.
실시예에 따르면 제어부(140)는 소정의 조건이 만족할 때, 제2유저 단말로부터 외관정보를 획득하고 외관정보에 기초하여 제2유저 캐릭터를 제어할 수 있다. 이를 위해 제어부(140)는 제2유저 단말로 하여금 제2유저의 외관정보를 전달하도록 요청할 수 있다. 예를 들어 제어부(140)는 제2유저 단말로 하여금 카메라를 실행시켜 제2유저의 외관정보를 전달하도록 요청할 수 있다.
일 실시예에 따르면 제어부(140)는 제2유저 캐릭터가 제1유저에게 표시될 때 제2유저 단말로부터 외관정보를 획득하고 외관정보에 기초하여 제2유저 캐릭터를 제어할 수 있다.
즉 제1유저에게 제공되는 가상공간 내에 제2유저 캐릭터가 위치하면 제어부(140)는 제2유저 단말로부터 외관정보를 획득하고 외관정보에 따라 제2유저 캐릭터를 제어하여 제1유저에게 제2유저 캐릭터의 변화된 표정, 모습 또는 움직임을 표시해줄 수 있다.
또 다른 실시예에 따르면 제어부(140)는 제1유저 캐릭터가 제1유저의 외관정보에 기초하여 모델링될 때, 또는 제1유저로부터 촬영정보 생성이 요청될 때 제2유저 단말로부터 외관정보를 획득하고 외관정보에 기초하여 제2유저 캐릭터를 제어할 수 있다.
예를 들어, 제1유저가 가상공간을 촬영하고자 할 때 제어부(140)는 제2유저 단말로부터 제2유저 외관정보를 획득하여 제2유저의 표정, 모습 또는 움직임이 반영된 제2유저 캐릭터를 제공할 수 있다.
다른 실시예에 따르면 제어부(140)는 제2유저 캐릭터가 가상공간 내에 소정의 영역에 위치할 때 제2유저 단말로부터 외관정보를 획득하고 외관정보에 기초하여 제2유저 캐릭터를 제어할 수 있다.
예를 들어 제2유저 캐릭터가 가상공간 내 특정 영역 내에 위치하면 제어부(140)는 제2유저 단말로부터 외관정보를 획득하여 제2유저 캐릭터를 제어할 수 있다.
또한, 예를 들어 제2유저 캐릭터가 제1유저 캐릭터를 중심으로 소정의 영역 내에 위치하면 제어부(140)는 제2유저 단말로부터 외관정보를 획득하여 제2유저 캐릭터를 제어할 수 있다.
도 3 및 도 4에서 도시된 바와 같이, 예를 들어 제1유저 캐릭터(A)를 기준으로 소정의 반경(K) 이내에 제2유저 캐릭터(B)가 위치한 경우에 한해 제2유저 캐릭터(B)를 제2유저의 외관정보에 기초하여 제어한다면, 도 3에서 도시된 바와 같이 제1유저 캐릭터(A)를 기준으로 소정의 반경(K) 이내에 제2유저 캐릭터(B)가 위치하게 되면 제어부(140)는 제2유저 단말로 제2유저의 외관정보를 요청하여 획득하거나, 또는 제2유저 단말로부터 제2유저의 외관정보를 획득하여 제2유저 캐릭터를 제어할 수 있고, 그에 따라 혀를 내밀면서 한팔을 들어올린 제2유저의 모습을 반영한 제2유저 캐릭터(B)를 제공해줄 수 있다.
반면 제1유저 캐릭터(A)를 기준으로 소정의 반경(M) 이내에 제2유저 캐릭터(B)가 위치한 경우에 한해 제2유저 캐릭터(B)를 제2유저의 외관정보에 기초하여 제어한다면, 도 4에서 도시된 바와 같이 제1 유저 캐릭터(A)를 기준으로 소정의 반경(M) 밖에 제2유저 캐릭터(B)가 위치하게 되면 제어부(140)는 제2유저의 외관정보를 획득하지 않거나 제2유저의 외관정보를 획득하더라도 제2유저 캐릭터를 제어하지 않을 수 있다.
다른 실시예에 따르면 제어부(140)는 제2유저 캐릭터가 소정의 액션을 수행할 때 제2유저 단말로부터 외관정보를 획득하고 외관정보에 기초하여 제2유저 캐릭터를 제어할 수 있다.
예를 들어 제2유저 캐릭터가 특정 방향으로 바라보거나, 제1유저 캐릭터를 바라보면 제어부(140)는 제2유저 단말로부터 외관정보를 획득하여 제2유저 캐릭터를 제어할 수 있다. 이를 위해 제어부(140)는 제2유저 단말로, 외관정보의 획득을 위해 제2유저 단말의 카메라 또는 센서 등을 실행시킬 것을 요청할 수 있다.
관련하여 도 5에 도시된 바와 같이 제2유저는 자신의 제2유저 캐릭터(B)를 제어하여 제1유저 캐릭터(A)를 바라보도록 제어할 수 있다. 이를 위해 제2유저는 제2유저 단말을 통해 제2유저 캐릭터를 이동시키거나 방향 전환을 하도록 할 수 있다. 이에 제2유저 캐릭터(B)가 제1유저 캐릭터(A)를 바라본다고 판단되면 제어부(140)는 제2유저 단말의 카메라를 실행시켜 제2유저의 모습, 표정 또는 움직임에 관한 외관정보를 획득하여 제2유저 캐릭터를 제어할 수 있다.
이때, 제어부(140)는 제1유저 캐릭터가 제1유저의 외관정보에 기초하여 모델링될 때, 또는, 제1유저가 촬영정보의 생성을 요청했을 때 가상공간 상에 별도의 아이콘(500)을 제공함으로써 제2유저에게 알릴 수 있는데, 그에 따라 제2유저가 제2유저 캐릭터(B)를 제어하여 제2유저 캐릭터(B)의 외관이 변경되도록 할 수 있다.
다른 실시예에 따르면 제어부(140)는 제2유저가 소정의 입력을 수행함을 감지하면 제2유저 단말로부터 외관정보를 획득할 수 있다.
예를 들어 제2유저가 제2유저 단말을 통해 제1유저 캐릭터를 클릭하였을 때 제어부(140)는 제2유저 단말로부터 외관정보를 획득하여 제2유저 캐릭터를 제어할 수 있다.
또는 예를 들어 제2유저가 단말의 카메라를 실행시켜 자신의 모습을 촬영하거나 단말을 들고 이동함으로써 제2유저가 제2유저 단말을 통해 관찰데이터를 입력하였을 때, 이를 통해 제어부(140)가 관찰데이터 및 외관정보 중 적어도 하나를 획득하게 되면, 획득한 외관정보에 기초하여 제어부(140)는 제2유저 캐릭터를 제어할 수 있다.
상술된 바에 따라 제2유저의 외관정보에 기초하여 제어되는 제2유저 캐릭터를 제1유저에게 표시함으로써, 제1유저는 제2유저가 자신과 같은 공간에 위치하고 있음을 느낄 수 있고 이를 통해 제1유저는 제2유저에게 친밀감을 느끼며 가상공간에 대해 집중할 수 있다.
한편 실시예에 따르면, 제어부(140)는 촬영정보 생성 시, 가상공간 내에서의 제1유저 캐릭터의 위치 및 제2유저 캐릭터의 위치 중 적어도 하나를 변경시킬 수 있다.
관련하여 도 6에서 보시는 바와 같이, 제2유저 캐릭터(B)가 가상공간 내의 위치(610)에 있을 때, 제1유저가 자신의 제1유저 캐릭터와 함께 제2유저 캐릭터를 촬영하고 싶다면, 제어부(140)는 제1유저의 촬영요청에 따라 제1유저 캐릭터(A)와 멀리 떨어져있는 위치(610)에 있는 제2유저 캐릭터(B)의 위치를 변경하여 제2유저 캐릭터(B)를 제1유저 캐릭터(A) 옆 위치(620)로 변경시킬 수 있다.
그리고 제어부(140)는 촬영정보를 생성하고 난 이후 변경된 캐릭터의 위치를 원래의 위치로 변경시킬 수 있다.
따라서 도 6에서 도시된 바와 같이 촬영을 마친 이후 제1유저 캐릭터(A) 옆 위치(620)에 위치했던 제2유저 캐릭터(B)를 본래의 위치(610)로 변경시킬 수 있다. 이를 통해 제1유저는 제2유저와 단체 사진을 찍는 느낌을 가질 수 있다.
상술된 바에 따른 촬영장치(100)가 서버-클라이언트 시스템으로 구현될 때, 일 실시예에 따르면, 입출력부(130)는 클라이언트에 구현될 수 있고, 서버와의 통신을 위한 통신부(120)가 클라이언트에 구현될 수 있다. 그리고 클라이언트와 타 단말과의 통신을 위한 저장부(110), 통신부(120) 및 제어부(140)가 서버에서 구현될 수 있다. 또 다른 실시예에 따르면, 입출력부(130)는 클라이언트에 구현될 수 있고, 서버와의 통신을 위한 통신부(120)가 클라이언트에 구현될 수 있으며, 상술된 제어부(140)의 일부 기능이 클라이언트에 구현될 수 있다. 그리고, 클라이언트와 타 단말과의 통신을 위한 저장부(110), 통신부(120) 및 제어부(140)가 서버에서 구현될 수 있다. 이때 서버에서 구현되는 제어부(140)의 기능은 클라이언트에서 구현된 기능을 제외한 기능일 수 있으나, 클라이언트에서 구현된 기능을 적어도 일부 포함할 수도 있다.
한편, 도 7 내지 도 8은 일 실시예에 따른 촬영방법을 설명하기 위한 순서도이다. 도 7 내지 도 8에 도시된 촬영방법은 도 1 내지 도 6를 통해 설명된 촬영장치(100)에서 시계열적으로 처리하는 단계들을 포함한다. 따라서 이하에서 생략된 내용이라고 하더라도 도 1 내지 도 6에 도시된 촬영장치(100)에 관하여 이상에서 기술한 내용은 도 7 내지 도 8에 도시된 실시예에 따른 촬영방법에도 이용될 수 있다.
도 7에서 도시된 바와 같이 촬영장치(100)는 제1유저로부터 가상공간에 대한 촬영 요청을 수신할 수 있다(S710). 그리고 촬영장치(100)는 가상공간에 대한 촬영정보를 생성할 수 있다 (S720).
이때 촬영장치(100)는 가상공간 내 제1유저 캐릭터를 제1유저의 외관정보에 기초하여 제어할 수 있다. 예를 들어 제1유저의 표정, 모습 또는 움직임을 제1유저 캐릭터에 반영하고 그에 따라 표시되는 가상공간을 촬영할 수 있다.
또한 촬영장치(100)는 제2유저 캐릭터가 가상공간 내에 존재하면 제2유저 캐릭터도 함께 촬영된 촬영정보를 생성할 수 있다 (S810).
이때 촬영장치(100)는, 제2유저의 외관정보에 기초하여 제2유저 캐릭터 제어가 트리거링되는지 판단할 수 있다(S820).
일 실시예에 따르면 촬영장치(100)는 제1유저 캐릭터가 제1유저의 외관정보에 기초하여 모델링될 때, 또는 제1유저로부터 촬영정보 생성이 요청될 때 제2유저 캐릭터 제어가 트리거링되었다고 판단할 수 있다.
또 다른 실시예에 따르면 촬영장치(100)는 제2유저 캐릭터가 제1유저에게 표시될 때 제2유저 캐릭터 제어가 트리거링되었다고 판단할 수 있다.
다른 실시예에 따르면 촬영장치(100)는 제2유저 캐릭터가 가상공간 내에 소정의 영역에 위치할 때 제2유저 캐릭터 제어가 트리거링되었다고 판단할 수 있다. 예를 들어 제2유저 캐릭터가 제1유저 캐릭터를 중심으로 소정의 영역 내에 위치함을 감지하면 촬영장치(100)는 제2유저 캐릭터 제어가 트리거링되었다고 판단할 수 있다.
다른 실시예에 따르면 촬영장치(100)는 제2유저 캐릭터가 소정의 액션을 수행할 때 제2유저 캐릭터 제어가 트리거링되었다고 판단할 수 있다. 예를 들어 제2유저 캐릭터가 제1유저 캐릭터에게 아이템을 전달하면, 제2유저 캐릭터 제어가 트리거링되었다고 판단할 수 있다.
다른 실시예에 따르면 촬영장치(100)는 제2유저가 소정의 입력을 수행함을 감지하면 제2유저 캐릭터 제어가 트리거링되었다고 판단할 수 있다. 예를 들어 제2유저가 제2유저 단말의 카메라를 실행시키면 제2유저 캐릭터 제어가 트리거링되었다고 판단할 수 있다.
이와 같이 제2유저 캐릭터의 제어가 트리거링되었다고 판단되면, 촬영장치(100)는 제2유저 단말로부터 획득된 제2유저의 외관정보에 기초하여 가상공간 내에 위치하는 제2유저 캐릭터를 제어할 수 있다.(S830). 이를 위해 촬영장치(100)는 제2유저 단말로 제2유저의 외관정보를 요청할 수 있다.
이때 가상공간 내에 위치한 제1유저 캐릭터의 위치 및 제2유저 캐릭터의 위치 중 적어도 하나의 위치를 변경하고 촬영정보를 생성할 수 있다. 예를 들어 복수의 유저 캐릭터들 간의 단체 사진과 같이, 제1유저 캐릭터와 제2유저 캐릭터가 인접하게 위치하도록 하고 촬영할 수 있다.
상기 촬영정보를 생성하고 난 이후, 변경된 위치의 유저 캐릭터를 변경 전의 위치로 이동시킬 수 있다. 예를 들어 제1유저 캐릭터의 위치와 제2유저 캐릭터의 위치가 촬영을 위해 모두 변경되었다면, 촬영이 완료된 이후 제1유저 캐릭터와 제2유저 캐릭터를 촬영 이전의 원래 위치로 원복시킬 수 있다.
상술된 바에 따라 생성된 촬영정보를 촬영장치(100)는 저장할 수 있다 (S730).
촬영장치(100)는 유저로 하여금 가상공간에 대해 촬영하도록 하거나, 셀피를 찍는듯한 느낌을 제공해줄 수 있으며, 이를 통해 가상공간에 대한 유저의 애착도를 향상시킬 수 있다. 또한 가상공간을 게임공간으로서 제공되는 게임을 플레이하는 유저라면, 트로피와 같이 기념할만한 순간(예: 퀘스트 달성 등)을 촬영하여 이미지 또는 동영상을 남길 수 있고, 다른 유저와 함께 단체 촬영을 함으로써 해당 게임에 대한 애착도를 향상시킬 수 있다. 이는 게임에 대한 유저의 흥미를 고취시키고 게임 이탈을 방지하여 게임에 대한 리텐션을 유지하도록 한다.
이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.
뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.
도 7 및 도 8을 통해 설명된 실시예들에 따른 촬영방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.
또한, 도 7 및 도 8을 통해 설명된 실시예들에 따른 촬영방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한, 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 도 7 및 도 8을 통해 설명된 실시예들에 따른 촬영방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한, 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한, 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한, 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 명세서를 통해 보호받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.
100: 촬영장치
110: 저장부 120: 통신부
130: 입출력부 140: 제어부

Claims (18)

  1. 제1유저 캐릭터가 위치하는 가상공간을 촬영하는 촬영장치로서,
    제2유저 단말로부터 획득된 제2유저의 외관정보에 기초하여 상기 가상공간 내에 위치하는 제2유저 캐릭터를 제어하는 제어부; 및
    상기 가상공간에 대응되는 촬영정보를 저장하는 저장부를 포함하는 촬영장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 제1유저 캐릭터가 상기 가상공간 내 소정의 영역 내에 위치하면 제1유저의 외관정보에 기초하여 상기 제1유저 캐릭터를 제어하는, 촬영장치.
  3. 제1항에 있어서,
    제1유저에 대응되는 관찰데이터를 입력받는 입출력부를 더 포함하고,
    상기 제어부는,
    상기 관찰데이터에 기초하여 생성된 제1유저의 외관정보에 기초하여 상기 제1유저 캐릭터를 제어하는, 촬영장치.
  4. 제1항에 있어서,
    상기 제어부는,
    상기 제2유저 캐릭터가 상기 제1유저 캐릭터를 중심으로 소정의 영역 내에 위치함을 감지하면 상기 제2유저의 외관정보에 기초하여 상기 제2유저 캐릭터를 제어하는, 촬영장치.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 제2유저 캐릭터가 상기 가상공간 내에서 소정의 액션을 수행함을 감지하면 상기 제2유저의 외관정보에 기초하여 상기 제2유저 캐릭터를 제어하는, 촬영장치.
  6. 제1항에 있어서,
    상기 제어부는,
    상기 제2유저의 외관정보의 획득을 감지하면 상기 제2유저 캐릭터를 제어하는, 촬영장치.
  7. 제1항에 있어서,
    상기 가상공간을 표시하는 입출력부를 더 포함하고,
    상기 제어부는,
    표시된 가상공간에 대한 이미지 및 동영상 중 적어도 하나를 상기 촬영정보로서 생성하는, 촬영장치.
  8. 제7항에 있어서,
    상기 제어부는,
    상기 표시된 가상공간 내에 위치한 제1유저 캐릭터의 위치 및 제2유저 캐릭터의 위치 중 적어도 하나의 위치를 변경하고 촬영정보를 생성하는, 촬영장치.
  9. 제8항에 있어서,
    상기 제어부는,
    상기 촬영정보를 생성하고 난 이후, 변경된 위치의 캐릭터를 변경 전의 위치로 이동시키는, 촬영장치.
  10. 제1항에 있어서,
    상기 가상공간은 제1유저가 게임을 플레이하는 게임공간인, 촬영장치.
  11. 제1유저 캐릭터가 위치하는 가상공간을 촬영하는 촬영장치가 수행하는 촬영방법으로서,
    상기 가상공간에 대한 촬영 요청을 획득하는 단계;
    상기 가상공간에 대한 촬영정보를 생성하되, 제2유저 단말로부터 획득된 제2유저의 외관정보에 기초하여 상기 가상공간 내에 위치하는 제2유저 캐릭터를 제어하는 단계; 및
    상기 촬영정보를 저장하는 단계를 포함하는, 촬영방법.
  12. 제11항에 있어서,
    상기 제2유저 캐릭터를 제어하는 단계는,
    상기 제2유저 캐릭터가 상기 제1유저 캐릭터를 중심으로 소정의 영역 내에 위치함을 감지하면 상기 제2유저의 외관정보에 기초하여 상기 제2유저 캐릭터를 제어하는 단계를 포함하는, 촬영방법.
  13. 제11항에 있어서,
    상기 제2유저 캐릭터를 제어하는 단계는,
    상기 제2유저 캐릭터가 상기 가상공간 내에서 소정의 액션을 수행함을 감지하면 상기 제2유저의 외관정보에 기초하여 상기 제2유저 캐릭터를 제어하는 단계를 포함하는, 촬영방법.
  14. 제11항에 있어서,
    상기 제2유저 캐릭터를 제어하는 단계는,
    상기 제2유저의 외관정보의 획득을 감지하면 상기 제2유저 캐릭터를 제어하는 단계를 포함하는, 촬영방법.
  15. 제11항에 있어서,
    상기 제2유저 캐릭터를 제어하는 단계는,
    상기 가상공간 내에 위치한 제1유저 캐릭터의 위치 및 제2유저 캐릭터의 위치 중 적어도 하나의 위치를 변경하고 촬영정보를 생성하는 단계를 포함하는, 촬영방법.
  16. 제15항에 있어서,
    상기 촬영정보를 생성하고 난 이후, 변경된 위치의 캐릭터를 변경 전의 위치로 이동시키는 단계를 더 포함하는, 촬영방법.
  17. 제11항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
  18. 촬영장치에 의해 수행되며, 제11항에 기재된 촬영방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램.

KR1020200061791A 2020-05-22 2020-05-22 가상공간 촬영장치 및 촬영방법 KR20210144433A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200061791A KR20210144433A (ko) 2020-05-22 2020-05-22 가상공간 촬영장치 및 촬영방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200061791A KR20210144433A (ko) 2020-05-22 2020-05-22 가상공간 촬영장치 및 촬영방법

Publications (1)

Publication Number Publication Date
KR20210144433A true KR20210144433A (ko) 2021-11-30

Family

ID=78722541

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200061791A KR20210144433A (ko) 2020-05-22 2020-05-22 가상공간 촬영장치 및 촬영방법

Country Status (1)

Country Link
KR (1) KR20210144433A (ko)

Similar Documents

Publication Publication Date Title
US10843088B2 (en) Sharing recorded gameplay
US8788973B2 (en) Three-dimensional gesture controlled avatar configuration interface
KR20140033144A (ko) 용적 방식 비디오 표현 기법
US9294670B2 (en) Lenticular image capture
JP7249975B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
US20180005440A1 (en) Universal application programming interface for augmented reality
US20150213784A1 (en) Motion-based lenticular image display
US20180205999A1 (en) Mobile device video personalization
US8885878B2 (en) Interactive secret sharing
KR20170105069A (ko) 가상 캐릭터의 터닝을 구현하기 위한 방법 및 단말기
JP2023027017A (ja) ジェスチャベーススキル検索
JP2023021047A (ja) 動作データの共有
JP2023016015A (ja) 動きに基づくナビゲーション
US10061492B2 (en) Path-linked viewpoints from point of interest
US10967266B2 (en) Cinematic game camera in a gaming platform
US20180204599A1 (en) Mobile device video personalization
KR20210144433A (ko) 가상공간 촬영장치 및 촬영방법
US20180204601A1 (en) Mobile device video personalization
KR102668453B1 (ko) 오브젝트배치장치 및 오브젝트배치방법
KR102120975B1 (ko) 3자유도 컨트롤러를 이용한 가상 객체의 움직임 구현 장치 및 방법
KR20230078171A (ko) 게임 제공 장치 및 게임 제공 방법
CN117861201A (zh) 游戏中的交互方法、装置、电子设备及可读存储介质
KR20220012140A (ko) 오브젝트배치장치 및 오브젝트배치방법