KR20210131414A - 인터랙티브 오브젝트 구동 방법, 장치, 디바이스 및 기록 매체 - Google Patents

인터랙티브 오브젝트 구동 방법, 장치, 디바이스 및 기록 매체 Download PDF

Info

Publication number
KR20210131414A
KR20210131414A KR1020217031143A KR20217031143A KR20210131414A KR 20210131414 A KR20210131414 A KR 20210131414A KR 1020217031143 A KR1020217031143 A KR 1020217031143A KR 20217031143 A KR20217031143 A KR 20217031143A KR 20210131414 A KR20210131414 A KR 20210131414A
Authority
KR
South Korea
Prior art keywords
interactive object
image
virtual space
driving
target
Prior art date
Application number
KR1020217031143A
Other languages
English (en)
Inventor
린 쑨
Original Assignee
베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20210131414A publication Critical patent/KR20210131414A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

본 발명은 인터랙티브 오브젝트 구동 방법, 장치, 디바이스 및 기록 매체에 관한 것이다. 상기 방법은 인터랙티브 오브젝트 및 상기 인터랙티브 오브젝트가 위치하는 가상 공간을 표시하기 위한 표시 디바이스의 주변의 제1 이미지를 얻는 것; 목표 오브젝트의 상기 제1 이미지 내의 제1 위치를 얻는 것; 상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여, 상기 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정하는 것; 및 상기 제1 위치 및 상기 매핑 관계에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것을 포함한다.

Description

인터랙티브 오브젝트 구동 방법, 장치, 디바이스 및 기록 매체
본 발명은 컴퓨터 기술 분야에 관한 것인바, 구체적으로 인터랙티브 오브젝트 구동 방법, 장치, 디바이스 및 기록 매체에 관한 것이다.
대부분의 인간과 컴퓨터 사이의 인터랙티브 방식은 사용자가 버튼 클릭, 터치, 음성을 통해 입력을 실행하고, 디바이스가 표시 스크린 상에 표시된 이미지, 텍스트 또는 가상 인물을 이용하여 응답을 실행하는 방식이다. 현재, 대부분의 가상 인물은 음성 어시스턴트를 기초로 개량된 것인바, 디바이스에 입력된 음성을 출력하는 것뿐이며, 사용자와 가상 인물 사이의 인터랙티브는 아직 표면 상에 정체되어 있다.
본 발명의 실시예는 인터랙티브 오브젝트의 구동 방안을 제공한다.
본 발명의 일 양태는 인터랙티브 오브젝트 구동 방법을 제공한다. 상기 방법은 인터랙티브 오브젝트 및 상기 인터랙티브 오브젝트가 위치하는 가상 공간을 표시하기 위한 표시 디바이스의 주변의 제1 이미지를 얻는 것; 목표 오브젝트의 상기 제1 이미지 내의 제1 위치를 얻는 것; 상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여, 상기 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정하는 것; 및 상기 제1 위치 및 상기 매핑 관계에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것을 포함한다.
본 발명에 따른 임의의 하나의 실시 형태를 참조하면, 상기 제1 위치 및 상기 매핑 관계에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은, 상기 매핑 관계에 기반하여 상기 제1 위치를 상기 가상 공간에 매핑하여 목표 오브젝트의 상기 가상 공간 내의 대응하는 제2 위치를 얻는 것; 및 상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것을 포함한다.
본 발명에 따른 임의의 하나의 실시 형태를 참조하면, 상기 제2 위치에 기반하여, 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은, 상기 제2 위치에 기반하여, 가상 공간에 매핑된 목표 오브젝트와 상기 인터랙티브 오브젝트 사이의 제1 상대 각도를 확정하는 것; 상기 인터랙티브 오브젝트에 하나 또는 복수의 신체 부위가 동작을 실행하는 가중치를 확정하는 것; 및 상기 제1 상대 각도 및 상기 가중치에 따라, 상기 인터랙티브 오브젝트의 각 신체 부위를 구동하여 대응하는 편향 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트가 상기 가상 공간에 매핑된 목표 오브젝트를 향하도록 하는 것을 포함한다.
본 발명에 따른 임의의 하나의 실시 형태를 참조하면, 상기 가상 공간의 이미지 데이터와 상기 인터랙티브 오브젝트의 이미지 데이터는 가상 촬영 디바이스에 의해 취득된다.
본 발명에 따른 임의의 하나의 실시 형태를 참조하면, 상기 제2 위치에 기반하여, 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은, 상기 가상 촬영 디바이스의 가상 공간 내의 위치를 상기 제2 위치에 이동시키는 것; 및 상기 인터랙티브 오브젝트의 시선을 설정하여 당해 시선이 상기 가상 촬영 디바이스를 겨냥하도록 하는 것을 포함한다.
본 발명에 따른 임의의 하나의 실시 형태를 참조하면, 상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은, 상기 인터랙티브 오브젝트를 구동하여 시선을 상기 제2 위치에 이동시키는 동작을 실행하도록 하는 것을 포함한다.
본 발명에 따른 임의의 하나의 실시 형태를 참조하면, 상기 제1 위치 및 상기 매핑 관계에 기반하여, 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은, 상기 매핑 관계에 기반하여, 상기 제1 이미지를 상기 가상 공간에 매핑하여 제2 이미지를 얻는 것; 상기 제1 이미지를 복수의 제1 서브 영역으로 분할하고, 상기 제2 이미지를 상기 복수의 제1 서브 영역에 각각 대응하는 복수의 제2 서브 영역으로 분할하는 것; 상기 제1 이미지의 상기 복수의 제1 서브 영역 중에서 상기 목표 오브젝트가 위치하는 목표 제1 서브 영역을 확정하고, 상기 목표 제1 서브 영역에 기반하여 상기 제2 이미지의 상기 복수의 제2 서브 영역 중의 목표 제2 서브 영역을 확정하는 것; 및 상기 목표 제2 서브 영역에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것을 포함한다.
본 발명에 따른 임의의 하나의 실시 형태를 참조하면, 상기 목표 제2 서브 영역에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은, 상기 인터랙티브 오브젝트와 상기 목표 제2 서브 영역 사이의 제2 상대 각도를 확정하는 것; 및 상기 인터랙티브 오브젝트를 구동하여 상기 제2 상대 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트가 상기 목표 제2 서브 영역을 향하도록 하는 것을 포함한다.
본 발명에 따른 임의의 하나의 실시 형태를 참조하면, 상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여, 상기 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정하는 것은, 상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정하는 것; 상기 제1 이미지의 픽셀 평면의 상기 가상 공간 내의 대응하는 매핑 평면을 확정하는 것; 및 상기 인터랙티브 오브젝트와 상기 매핑 평면 사이의 축 방향 거리를 확정하는 것을 포함하되, 상기 매핑 평면은 상기 제1 이미지의 픽셀 평면을 상기 가상 공간에 매핑하여 얻어진 것이다.
본 발명에 따른 임의의 하나의 실시 형태를 참조하면, 상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정하는 것은, 상기 제1 이미지의 단위 픽셀 거리와 실제 공간의 단위 거리 사이의 제1 비례 관계를 확정하는 것; 실제 공간의 단위 거리와 가상 공간의 단위 거리 사이의 제2 비례 관계를 확정하는 것; 및 상기 제1 비례 관계 및 상기 제2 비례 관계에 기반하여, 상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정하는 것을 포함한다.
본 발명에 따른 임의의 하나의 실시 형태를 참조하면, 상기 목표 오브젝트의 상기 제1 이미지 내의 제1 위치는 목표 오브젝트의 얼굴 부분의 위치 및/또는 목표 오브젝트의 신체 위치를 포함한다.
본 발명의 일 양태는 인터랙티브 오브젝트 구동 장치를 제공한다. 상기 장치는 인터랙티브 오브젝트 및 상기 인터랙티브 오브젝트가 위치하는 가상 공간을 표시하기 위한 표시 디바이스의 주변의 제1 이미지를 얻기 위한 제1 취득 유닛; 목표 오브젝트의 상기 제1 이미지 내의 제1 위치를 얻기 위한 제2 취득 유닛; 상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여, 상기 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정하기 위한 확정 유닛; 및 상기 제1 위치 및 상기 매핑 관계에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하기 위한 구동 유닛을 구비한다.
본 발명의 일 양태는 표시 디바이스를 제공한다. 상기 표시 디바이스에는 투명 디스플레이 스크린이 배치되어 있으며, 상기 투명 디스플레이 스크린은 인터랙티브 오브젝트를 표시하고, 상기 표시 디바이스는 상기 투명 디스플레이 스크린에 표시된 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 함으로써, 본 발명에 따른 임의의 하나의 실시 형태에 기재된 방법을 실행한다.
본 발명의 일 양태는 전자 디바이스를 제공한다. 상기 전자 디바이스는 기록 매체와 프로세서를 구비하고, 상기 기록 매체는 프로세서 상에서 실행될 수 있는 컴퓨터 명령을 저장하며, 상기 프로세서는 상기 컴퓨터 명령이 실행될 때 본 발명에 따른 임의의 하나의 실시 형태에 기재된 인터랙티브 오브젝트 구동 방법이 실행된다.
본 발명의 일 양태는 컴퓨터 프로그램이 저장되는 컴퓨터 판독 가능 기록 매체를 제공한다. 상기 프로그램이 프로세서에 의해 실행될 때, 본 발명에 따른 임의의 하나의 실시 형태에 기재된 인터랙티브 오브젝트 구동 방법이 실현된다.
본 발명의 하나 또는 복수의 실시예의 인터랙티브 오브젝트 구동 방법, 장치, 디바이스 및 컴퓨터 판독 가능 기록 매체에 따르면, 표시 디바이스 주변의 제1 이미지를 얻고, 인터랙티브 오브젝트와 인터랙티브를 실행하는 목표 오브젝트의 상기 제1 이미지 내의 제1 위치 및 상기 제1 이미지와 표시 디바이스에 표시된 가상 공간 사이의 매핑 관계를 얻으며, 당해 제1 위치 및 당해 매핑 관계에 기반하여 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 함으로써, 상기 인터랙티브 오브젝트로 하여금 목표 오브젝트를 마주보고 있도록 유지할 수 있고, 목표 오브젝트와 인터랙티브 오브젝트 사이의 인터랙티브를 더 리얼해지도록 할 수 있으며, 목표 오브젝트의 인터랙티브 체험을 향상시킬 수 있다.
이하, 본 명세서에 하나 또는 복수의 실시예 또는 종래 기술의 기술적 방안을 더 명확하게 설명하기 위하여, 실시예 또는 종래 기술의 설명에 사용할 필요가 있는 도면을 간단히 소개한다. 분명한 점이라면, 이하의 기술에 관한 도면이 단지 본 명세서에 하나 또는 복수의 실시예에 기재된 여러 실시예에 지나지 않으며, 당업자라면 발명적 노력 없이 이러한 도면으로부터 기타 도면을 얻을 수 있다.
도 1은 본 발명의 적어도 하나의 실시예에 따른 인터랙티브 오브젝트 구동 방법 중의 표시 디바이스의 모식도를 나타낸다.
도 2는 본 발명의 적어도 하나의 실시예에 따른 인터랙티브 오브젝트 구동 방법의 플로우 챠트를 나타낸다.
도 3은 본 발명의 적어도 하나의 실시예에 따른 제2 위치와 인터랙티브 오브젝트와의 상대 위치의 모식도를 나타낸다.
도 4는 본 발명의 적어도 하나의 실시예에 따른 인터랙티브 오브젝트 구동 방법의 플로우 챠트를 나타낸다.
도5는 본 발명의 적어도 하나의 실시예에 따른 인터랙티브 오브젝트 구동 방법의 플로우 챠트를 나타낸다.
도6은 본 발명의 적어도 하나의 실시예에 따른 인터랙티브 오브젝트 구동 방법의 플로우 챠트를 나타낸다.
도7은 본 발명의 적어도 하나의 실시예에 따른 인터랙티브 오브젝트 구동 장치의 구조의 모식도를 나타낸다.
도8은 본 발명의 적어도 하나의 실시예에 따른 전자 디바이스의 구조의 모식도를 나타낸다.
여기서 예시적인 실시예를 상세하게 설명하며, 그 예를 도면에 나타낸다. 이하의 서술이 도면을 언급할 때에, 별도의 설명이 없는 한, 기타 도면에서의 동일한 숫자는 동일한 요소 또는 유사한 요소를 나타낸다. 이하의 예시적인 실시예로 서술되는 실시 형태는 본 발명과 일치한 모든 실시 형태를 대표하지 않는다. 반대로, 이들은 첨부된 특허 청구의 범위에 기재된, 본 발명의 몇몇의 양태와 일치한 장치 및 방법의 예에 지나치지 않는다.
본 명세서 중의 "및/또는"이라는 용어는 단지 하나의 관련 대상의 관련 관계를 나타내는바, 예를 들면 A 및/또는 B는 A가 단독적으로 존재하는 것, A와 B가 동시에 존재하는 것 및 B가 단독적으로 존재하는 것과 같은 세 종류의 관계가 존재할 수 있음을 의미한다. 또한 본 명세서 중의 "적어도 하나”라는 용어는 복수 개 중이 임의의 하나 또는 복수 개 중의 적어도 두 종류의 임의의 조합을 의미하는바, 예를 들면 A, B, C 중의 적어도 하나를 포함하는 것은 A, B 및 C로 구성된 세트 중에서 선택한 임의 하나 또는 복수의 요소를 의미한다.
본 발명의 적어도 하나의 실시예는 인터랙티브 오브젝트 구동 방법을 제공한다. 상기 구동 방법은 단말 디바이스 또는 서버 등과 같은 전자 디바이스에 의해 실행될 수 있다. 상기 단말 디바이스는 고정 단말 또는 모바일 단말일 수 있는바, 예를 들면 휴대 전화, 태블릿 PC, 게임기, 데스크탑 컴퓨터, 광고기, 일체형 PC, 차량용 단말 등일 수도 있다. 상기 방법은 프로세서가 메모리에 저장된 컴퓨터 판독 가능 명령을 호출함으로써 실시될 수도 있다.
본 발명의 실시예에 있어서, 인터랙티브 오브젝트는 목표 오브젝트와 인터랙티브를 실행할 수 있는 임의의 하나의 인터랙티브 오브젝트일 수 있다. 당해 인터랙티브 오브젝트는 가상 인물일 수도 있고, 가상 동물, 가상 물품, 만화 캐릭터 등과 같은 인터랙티브 기능을 실현 가능한 기타 가상 오브젝트일 수도 있다. 상기 목표 오브젝트는 사용자, 로봇 또는 기타 스마트 디바이스일 수도 있다. 상기 목표 오브젝트와 상기 인터랙티브 오브젝트 사이의 인터랙티브 방식은 능동적인 인터랙티브 방식일 수도 있고, 수동적인 인터랙티브 방식일 수도 있다. 일 예에 있어서, 목표 오브젝트는 제스처 또는 신체 동작을 실행하여 요청을 보냄으로써, 능동적인 인터랙티브 방식으로 인터랙티브 오브젝트를 트리거하여 인터랙티브를 할 수 있다. 다른 일 예에 있어서, 인터랙티브 오브젝트는 능동적으로 인사를 하거나 목표 오브젝트가 동작 등을 하도록 제시함으로써, 목표 오브젝트로 하여금 수동적인 방식으로 인터랙티브 오브젝트와 인터랙티브를 실행하도록 할 수 있다.
상기 인터랙티브 오브젝트는 표시 디바이스를 통해 디스플레이될 수도 있다. 상기 표시 디바이스는 표시 기능을 가지는 전자 디바이스, 예를 들면 디스플레이 스크린을 가지는 일체형PC, 프로젝터, 가상 현실(Virtual Reality, VR) 디바이스, 확장 현실(Augmented Reality, AR) 디바이스일 수도 있고, 특수한 표시 효과를 가지는 표시 디바이스일 수도 있다.
도 1은 본 발명의 적어도 하나의 실시예에 따른 표시 디바이스를 나타낸다. 도 1에 나타낸바와 같이, 당해 표시 디바이스는 디스플레이 스크린에 입체 화면을 표시함으로써, 입체 효과를 가지는 가상 시나리오 및 인터랙티브 오브젝트를 나타낼 수 있다. 도 1에 있어서, 디스플레이 스크린에 표시된 인터랙티브 오브젝트는 예를 들면 가상 만화 인물일 수 있다. 당해 디스플레이 스크린은 투명 디스플레이 스크린일 수 있다. 여러 실시예에 있어서, 본 발명에서의 상기 단말 디바이스는 상기 디스플레이 스크린을 가지는 표시 디바이스일 수도 있다. 표시 디바이스에는 메모리 및 프로세서가 설치되어 있으며, 메모리는 프로세서 상에서 실행될 수 있는 컴퓨터 명령을 저장하고, 상기 프로세서는 상기 컴퓨터 명령이 실행될 때 본 발명에 관한 인터랙티브 오브젝트 구동 방법을 실시함으로써, 디스플레이 스크린에 표시된 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 한다.
여러 실시예에 있어서, 인터랙티브 오브젝트가 동작을 하거나, 표정을 나타내거나, 음성을 출력하도록 구동하기 위한 구동 데이터가 표시 디바이스에 의해 수신된 것에 응답하여, 인터랙티브 오브젝트는 목표 오브젝트와 마주하고, 지정된 동작 또는 표정을 실행하거나 또는 지정된 음성을 낼 수 있다. 표시 디바이스의 주변에 위치하는 목표 오브젝트의 동작, 표정, 신분, 취미 등에 기반하여 구동 데이터를 생성함으로써, 인터랙티브 오브젝트를 구동하여 응답을 실행하도록 함으로써, 목표 오브젝트에 의인화된 서비스를 제공한다. 인터랙티브 오브젝트와 목표 오브젝트의 인터랙티브 과정에서, 인터랙티브 오브젝트가 상기 목표 오브젝트의 위치를 정확하게 파악할 수 없는 가능성이 있기 때문에, 상기 목표 오브젝트와의 대면 의사 소통을 유지할 수 없고, 인터랙티브 오브젝트와 목표 오브젝트 사이의 인터랙티브가 딱딱하고 부자연스러워진다. 이에 감안하여, 본 발명의 적어도 하나의 실시예는 인터랙티브 오브젝트와 인터랙티브를 실행하는 목표 오브젝트의 체험을 향상시키기 위한 인터랙티브 오브젝트 구동 방법을 제안한다.
도 2는 본 발명의 적어도 하나의 실시예에 따른 인터랙티브 오브젝트 구동 방법의 플로우 챠트를 나타낸다. 도 2에 나타낸바와 같이, 상기 방법은 단계 S201∼단계 S204를 포함한다.
단계 S201에 있어서, 표시 디바이스의 주변(surroundings)의 제1 이미지를 얻는다. 상기 표시 디바이스는 인터랙티브 오브젝트 및 상기 인터랙티브 오브젝트가 위치하는 가상 공간을 표시한다.
상기 표시 디바이스의 주변은 상기 표시 디바이스의 소정의 범위 내의 임의의 방향을 포함하는바, 예를 들면 상기 표시 디바이스의 전방, 측방, 후방, 상방 중의 하나 또는 복수의 방향을 포함할 수 있다.
이미지 수집 디바이스를 이용하여 제1 이미지를 수집할 수도 있다. 상기 이미지 수집 디바이스는 표시 디바이스에 내장된 카메라일 수도 있고, 표시 디바이스로부터 독립된 카메라일 수도 있다. 상기 이미지 수집 디바이스의 수량은 하나 또는 복수일 수 있다.
바람직하게는, 제1 이미지는 비디오 스트림 중의 일 프레임일 수도 있고, 실시간으로 취득된 이미지일 수도 있다.
본 발명의 실시예에 있어서, 상기 가상 공간은 표시 디바이스 스크린에 디스플레이된 가상 시나리오일 수 있고, 상기 인터랙티브 오브젝트는 당해 가상 시나리오에 나타나는 가상 인물, 가상 물품, 만화 캐릭터 등과 같은 목표 오브젝트와 인터랙티브를 실행할 수 있는 가상 오브젝트일 수도 있다.
단계 S202에 있어서, 목표 오브젝트의 상기 제1 이미지 내의 제1 위치를 얻는다.
본 발명의 실시예에 있어서, 상기 제1 이미지를 미리 트레이닝된 신경망 모델에 입력하여, 상기 제1 이미지에 대해 사람 얼굴 및/또는 인체 검출을 실행함으로써, 상기 제1 이미지에 목표 오브젝트가 포함되었는지 여부를 검출할 수 있다. 여기서, 상기 목표 오브젝트는 상기 인터랙티브 오브젝트와 인터랙티브를 실행하는 사용자 대상은 나타내는 바, 예를 들면 사람, 동물 또는 동작과 명령을 실행 가능한 물체 등을 나타낸다. 본 발명에서는 목표 오브젝트의 유형에 대해 한정하는 것을 의도하지 않는다.
상기 제1 이미지의 검출 결과가 사람 얼굴 및/또는 인체(예를 들면 사람 얼굴 검출 프레임 및/또는 인체 검출 프레임의 형식)을 포함하는 것에 응답하여, 사람 얼굴 및/또는 인체의 제1 이미지 내의 위치를 파악함으로써 상기 목표 오브젝트의 제1 이미지 내의 제1 위치를 확정한다. 당업자라면 이해할 수 있듯이, 기타 방식으로 목표 오브젝트의 제1 이미지 내의 제1 위치를 파악할 수도 있는바, 본 발명에서는 이에 대해 한정하지 않는다.
단계 S203에 있어서, 상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여, 상기 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정한다.
제1 이미지와 가상 공간 사이의 매핑 관계는 제1 이미지를 가상 공간에 매핑했을 때, 상기 제1 이미지가 상기 가상 공간에 대해 나타나는 크기 및 위치하는 위치를 나타낸다. 상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여 당해 매핑 관계를 확정하는 것은, 상기 인터랙티브 오브젝트의 시각으로 가상 공간에 매핑된 제1 이미지가 나타나는 크기 및 위치하는 위치를 나타내는 것이다.
단계 S204에 있어서, 상기 제1 위치 및 상기 매핑 관계에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 한다.
목표 오브젝트의 상기 제1 이미지 내의 제1 위치 및 상기 제1 이미지와 가상 공간 사이의 매핑 관계에 기반하여 인터랙티브 오브젝트의 시각으로 가상 공간에 매핑된 목표 오브젝트와 인터랙티브 오브젝트 사이의 상대 위치를 확정할 수 있다. 당해 상대 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 함으로써(예를 들면 상기 인터랙티브 오브젝트를 구동하여 몸을 뒤로 돌리거나, 몸을 옆으로 돌리거나, 머리를 뒤로 돌리는 등), 상기 인터랙티브 오브젝트로 하여금 목표 오브젝트를 마주보고 있도록 유지할 수 있고, 목표 오브젝트와 인터랙티브 오브젝트 사이의 인터랙티브를 더 리얼해지도록 할 수 있으며, 목표 오브젝트의 인터랙티브 체험을 향상시킬 수 있다.
본 발명의 실시예에서는 표시 디바이스의 주변의 제1 이미지를 취득하고, 인터랙티브 오브젝트와 인터랙티브를 실행하는 목표 오브젝트의 상기 제1 이미지 내의 제1 위치 및 상기 제1 이미지와 표시 디바이스에 표시된 가상 공간 사이의 매핑 관계를 얻을 수 있다. 당해 제1 위치 및 당해 매핑 관계에 기반하여 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 함으로써, 상기 인터랙티브 오브젝트로 하여금 목표 오브젝트를 마주보고 있도록 유지할 수 있고, 목표 오브젝트와 인터랙티브 오브젝트 사이의 인터랙티브를 더 리얼해지도록 할 수 있으며, 목표 오브젝트의 인터랙티브 체험을 향상시킬 수 있다.
본 발명의 실시예에 있어서, 상기 가상 공간 및 상기 인터랙티브 오브젝트는 가상 촬영 디바이스에 의해 취득된 이미지 데이터를 상기 표시 디바이스 스크린에 표시하여 얻어진 것이다. 상기 가상 공간의 이미지 데이터 및 상기 인터랙티브 오브젝트의 이미지 데이터는 가상 촬영 디바이스에 의해 취득된 것일 수도 있으며, 가상 촬영 디바이스에 의해 호출된 것일 수도 있다. 가상 촬영 디바이스는 3D 소프트웨어에 적용할 수 있고, 스크린에 3D 이미지를 표시하는 카메라 앱 또는 카메라 유닛이며, 가상 공간은 상기 가상 촬영 디바이스로 취득된 3D 이미지를 스크린에 표시하여 얻어진 것이다. 따라서, 목표 오브젝트의 시각은 3D 소프트웨어에서의 가상 촬영 디바이스의 시각으로 이해될 수 있다.
목표 오브젝트와 이미지 수집 디바이스가 위치하는 공간은 실제 공간으로 이해될 수 있으며, 목표 오브젝트를 포함하는 제1 이미지는 픽셀 공간에 대응하는 것으로 이해될 수 있다. 인터랙티브 오브젝트 및 가상 촬영 디바이스에 대응하는 것은 가상 공간이다. 픽셀 공간과 실제 공간의 대응 관계는 목표 오브젝트와 이미지 수집 디바이스 사이의 거리 및 이미지 수집 디바이스 파라미터에 기반하여 확정될 수 있다. 실제 공간과 가상 공간의 대응 관계는 표시 디바이스 파라미터 및 가상 촬영 디바이스의 파라미터에 기반하여 확정될 수 있다. 픽셀 공간과 실제 공간의 대응 관계 및 실제 공간과 가상 공간의 대응 관계가 확정된 후, 픽셀 공간과 가상 공간의 대응 관계를 확정할 수 있다. 즉, 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정할 수 있다.
여러 실시예에 있어서, 상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여, 상기 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정할 수 있다.
먼저 상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계 n을 확정한다.
여기서, 단위 픽셀 거리는 각 픽셀에 대응하는 척도 또는 길이를 나타내고, 가상 공간의 단위 거리는 가상 공간 내의 단위 척도 또는 단위 길이를 나타낸다.
일 예에 있어서, 제1 이미지의 단위 픽셀 거리와 실제 공간의 단위 거리 사이의 제1 비례 관계 n1 및 실제 공간의 단위 거리와 가상 공간의 단위 거리 사이의 제2 비례 관계 n2을 확정함으로써, 비례 관계 n을 확정할 수 있다. 여기서, 실제 공간의 단위 거리는 실제 공간 내의 단위 척도 또는 단위 길이를 나타낸다. 여기서 단위 픽셀 거리, 가상 공간의 단위 거리 및 실제 공간의 단위 거리의 크기는 미리 설치되어 있으며, 또한 변경될 수 있다.
제1 비례 관계 n1은 식(1)을 통해 계산될 수 있다.
Figure pct00001
(1)
여기서, d는 목표 오브젝트와 이미지 수집 디바이스 사이의 거리를 나타내고, 예시적으로, 목표 오브젝트의 얼굴 부분과 이미지 수집 디바이스 사이의 거리를 이용할 수 있으며, a는 제1 이미지의 폭을 나타내고, b는 제1 이미지의 높이를 나타내며,
Figure pct00002
이다. 여기서, FOV1은 이미지 수집 디바이스의 연직 방향 상의 시야각을 나타내고, con은 각도에서 라디안으로의 변환에 대한 상수 값이다.
제2 비례 관계 n2은 식(2)을 통해 계산될 수 있다.
Figure pct00003
(2)
여기서,
Figure pct00004
은 표시 디바이스 스크린 높이를 나타내고,
Figure pct00005
는 가상 촬영 디바이스의 높이를 나타내며, hv=tan((FOV2/2)*con*dz*2)이다. 여기서, FOV2은 가상 촬영 디바이스의 연직 방향 상의 시야각을 나타내고, con은 각도에서 라디안으로의 변환에 대한 상수 값이며, dz는 인터랙티브 오브젝트와 가상 촬영 디바이스 사이의 축 방향 거리를 나타낸다.
상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계 n은 식(3)을 통해 계산될 수 있다.
n=n1/n2 (3)
이어서, 상기 제1 이미지의 픽셀 평면의 상기 가상 공간 내의 대응하는 매핑 평면 및 상기 인터랙티브 오브젝트와 상기 매핑 평면 사이의 축 방향 거리fz를 확정한다.
상기 매핑 평면과 상기 인터랙티브 오브젝트 사이의 축 방향 거리fz는 식(4)을 통해 계산될 수도 있다.
Figure pct00006
(4)
상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계 n 및 가상 공간 내의 매핑 평면과 인터랙티브 오브젝트 사이의 축 방향 거리
Figure pct00007
가 확정되었을 경우, 제1 이미지와 가상 공간 사이의 매핑 관계를 확정할 수 있다.
여러 실시예에 있어서, 상기 매핑 관계에 기반하여, 상기 제1 위치를 상기 가상 공간에 매핑하여 목표 오브젝트의 상기 가상 공간 내의 대응하는 제2 위치를 얻고, 상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 수 있다.
상기 제2 위치의 가상 공간 내의 좌표(fx, fy, fz)은 이하의 식을 통해 계산된다.
Figure pct00008
Figure pct00009
(5)
Figure pct00010
여기서,
Figure pct00011
,
Figure pct00012
은 목표 오브젝트의 제1 이미지 내의 제1 위치의 x방향과 y방향의 좌표다.
목표 오브젝트의 제1 이미지 내의 제1 위치를 가상 공간에 매핑하여 목표 오브젝트의 가상 공간 내의 대응하는 제2 위치를 취득함으로써, 가상 공간 내의, 목표 오브젝트와 인터랙티브 오브젝트 사이의 상대 위치 관계를 확정할 수 있다. 당해 상대 위치 관계에 기반하여 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 함으로써, 상기 인터랙티브 오브젝트로 하여금 목표 오브젝트의 위치 변환에 대해 동작 피드백을 실행하도록 할 수 있으며, 목표 오브젝트의 인터랙티브 체험을 향상시킬 수 있다.
일 예에 있어서, 도 4에 나타낸바와 같이, 이하의 방식으로 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 수 있다.
먼저 단계 S401에 있어서, 상기 제2 위치에 기반하여 가상 공간에 매핑된 목표 오브젝트와 상기 인터랙티브 오브젝트 사이의 제1 상대 각도를 확정한다. 상기 제1 상대 각도는 인터랙티브 오브젝트의 정면 방향과 (인체의 시상면에 해당하는 방향) 제2 위치 사이의 각도를 나타낸다. 도 3에 나타낸바와 같이, 310은 인터랙티브 오브젝트를 나타내고, 당해 인터랙티브 오브젝트의 정면이 도 3에서 점선으로 나타낸 방향과 마주하며, 320은 제2 위치에 대응하는 좌표점(제2 위치점)을 나타낸다. 제2 위치점과 인터랙티브 오브젝트가 위치하는 위치점(예를 들면 인터랙티브 오브젝트의 가로 방향 단면에서의 중심을 인터랙티브 오브젝트가 위치하는 위치점으로 확정할 수 있음) 사이의 연결 선과, 인터랙티브 오브젝트의 정면 방향 사이의 각도 θ1이 바로 제1 상대 각도이다.
이어서, 단계 S402에 있어서, 상기 인터랙티브 오브젝트에 하나 또는 복수의 신체 부위가 각각 동작을 실행하는 가중치를 확정한다. 인터랙티브 오브젝트에 하나 또는 복수의 신체 부위는 동작의 실행에 관한 신체 부위를 나타낸다. 인터랙티브 오브젝트가 하나의 동작을 완성하는 것은, 예를 들면 몸을 90도 회전시켜 어느 오브젝트를 향하도록 하는 것은, 하반신, 상반신 및 두부가 공동하여 완성할 수 있다. 예를 들면 하반신이 30도 회전하고, 상반신이 60도 회전하고, 두부가 90도 회전하면, 인터랙티브 오브젝트가 90도 회전하는 것을 실현 가능하다. 여기서, 각 신체 부위가 회전하는 폭비례가 동작을 실행하는 가중치이다. 필요에 따라, 그 중의 하나의 신체 부위가 동작을 실행하는 가중치를 높게 설정할 수 있다. 이렇게 하여, 동작을 실행할 때, 당해 신체 부위의 운동 폭이 크고, 기타 신체 부위의 운동 폭이 작게 하는 방식으로, 공동하여 소정의 동작을 완성할 수 있다. 당업자라면 이해할 수 있듯이, 당해 단계에 포함되는 신체 부위 및 각 신체 부위에 대응하는 가중치는 실행하는 동작 및 동작 효과에 대한 요구에 따라 구체적으로 설정될 수 있거나, 또는 렌더러 또는 소프트웨어 내부에서 자동적으로 설정될 수 있다.
마지막으로, 단계 S403에 있어서, 상기 제1 상대 각도와 상기 인터랙티브 오브젝트의 각 부위에 각각 대응하는 가중치에 따라 상기 인터랙티브 오브젝트의 각 부위를 구동하여 대응하는 편향 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트가 상기 가상 공간에 매핑된 목표 오브젝트를 향하도록 한다.
본 발명의 실시예에 있어서, 가상 공간에 매핑된 목표 오브젝트와 인터랙티브 오브젝트 사이의 상대 각도 및 인터랙티브 오브젝트의 각 신체 부위가 동작을 실행하는 가중치에 따라 인터랙티브 오브젝트의 각 신체 부위를 구동하여 대응하는 편향 각도를 회전하도록 한다. 이렇게 하여, 인터랙티브 오브젝트의 서로 다른 신체 부위가 서로 다른 폭의 운동을 실행하도록 함으로써, 인터랙티브 오브젝트의 신체가 자연스럽고 생동하게 추적하는 목표 오브젝트를 향하는 효과가 실현되어, 목표 오브젝트의 인터랙티브 체험을 향상시킬 수 있다.
여러 실시예에 있어서, 인터랙티브 오브젝트의 시선을 설정하여 당해 시선이 가상 촬영 디바이스를 겨냥하도록 할 수 있다. 목표 오브젝트의 가상 공간 내의 대응하는 제2 위치가 확정된 후, 상기 가상 촬영 디바이스의 가상 공간 내의 위치를 상기 제2 위치에 이동시킨다. 인터랙티브 오브젝트의 시선이 가상 촬영 디바이스를 항상 겨냥하도록 설정하기 때문에, 목표 오브젝트로 하여금 인터랙티브 오브젝트의 시선이 항상 자신을 따르는 느낌이 들게 할 수 있으며, 목표 오브젝트의 인터랙티브 체험을 향상시킬 수 있다.
여러 실시예에 있어서, 인터랙티브 오브젝트를 구동하여 시선을 상기 제2 위치에 이동시키는 동작을 실행하도록 할 수 있다. 이렇게 하여, 인터랙티브 오브젝트의 시선이 목표 오브젝트를 추적하도록 함으로써, 목표 오브젝트의 인터랙티브 체험을 향상시킬 수 있다.
본 발명의 실시예에 있어서, 도5에 나타낸바와 같이, 이하의 방식으로, 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 수 있다.
먼저 단계 S501에 있어서, 상기 제1 이미지와 가상 공간 사이의 매핑 관계에 기반하여 상기 제1 이미지를 상기 가상 공간에 매핑하여 제2 이미지를 얻는다. 상기 매핑 관계가 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하는바, 즉 인터랙티브 오브젝트의 시각으로 실현하기 때문에, 상기 제1 이미지를 상기 가상 공간에 매핑하여 얻어진 제2 이미지의 범위를 인터랙티브 오브젝트의 시야 범위로 사용할 수 있다.
이어서, 단계 S502에 있어서, 상기 제1 이미지를 복수의 제1 서브 영역으로 분할하고, 상기 제2 이미지를 상기 복수의 제1 서브 영역에 대응하는 복수의 제2 서브 영역으로 분할한다. 여기서의 대응이란, 상기 제1 서브 영역의 수량이 상기 제2 서브 영역의 수량과 같고, 각 제1 서브 영역과 각 제2 서브 영역의 크기가 동일한 비례 관계를 가지며, 또한 각 제1 서브 영역이 제2 이미지에서 대응하는 제2 서브 영역을 가지는 것을 나타낸다.
가상 공간에 매핑된 제2 이미지의 범위가 인터랙티브 오브젝트의 시야 범위로 사용되기 때문에, 제2 이미지에 대한 분할은 인터랙티브 오브젝트의 시야 범위에 대한 분할에 상당한다. 인터랙티브 오브젝트의 시선은 시야 범위 내의 각 제 2서브 영역에 맞추어질 수 있다.
그 후, 단계 S503에 있어서, 상기 제1 이미지의 상기 복수의 제1 서브 영역 중에서 상기 목표 오브젝트가 위치하는 목표 제1 서브 영역을 확정하고, 상기 목표 제1 서브 영역에 기반하여 상기 제2 이미지의 상기 복수의 제2 서브 영역 중의 목표 제2 서브 영역을 확정한다. 상기 목표 오브젝트의 얼굴 위치하는 제1 서브 영역을 목표 제1 서브 영역으로 간주할 수 있고, 목표 오브젝트의 신체 위치하는 제1 서브 영역을 목표 제1 서브 영역으로 간주할 수 있으며, 목표 오브젝트의 얼굴과 신체가 위치하는 제1 서브 영역을 공동하여 목표 제1 서브 영역으로 간주할 수 있다. 상기 목표 제1 서브 영역에는 복수의 제1 서브 영역이 포함될 수도 있다.
이어서, 단계 S504에 있어서, 목표 제2 서브 영역이 확정된 후, 목표 제2 서브 영역이 위치하는 위치에 따라 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 수 있다.
본 발명의 실시예에 있어서, 인터랙티브 오브젝트의 시야 범위를 분할하고, 목표 오브젝트의 제1 이미지 내의 위치에 기반하여, 당해 목표 오브젝트의 인터랙티브 오브젝트의 시야 범위 내의 대응하는 위치 영역을 확정하기 때문에, 빠르고 효과 적으로 인터랙티브 오브젝트를 구동하여 동작을 실행시킬 수 있다.
도6에 나타낸바와 같이, 도5의 단계 S501∼S504 이외에, 단계 S505를 더 포함한다. 단계 S505에 있어서, 목표 제2 서브 영역이 확정되었을 경우, 인터랙티브 오브젝트와 상기 목표 제2 서브 영역 사이의 제2 상대 각도를 확정하고, 인터랙티브 오브젝트를 구동하여 당해 제2 상대 각도를 회전하도록 함으로써, 인터랙티브 오브젝트가 목표 제2 서브 영역을 향하도록 한다. 이러한 방식을 통해 인터랙티브 오브젝트가 목표 오브젝트의 이동과 함께 항상 목표 오브젝트와 대면을 유지하는 효과가 실현된다. 당해 제2 상대 각도의 확정 방식은 제1 상대 각도의 확정 방식과 유사한다. 예를 들면 목표 제2 서브 영역의 중심 및 인터랙티브 오브젝트가 위치하는 위치점의 사이의 연결 선과 인터랙티브 오브젝트의 정면 방향 사이의 각도를 제2 상대 각도로 확정한다. 당해 제2 상대 각도의 확정 방식은 이에 한정되지 않는다.
일 예에 있어서, 인터랙티브 오브젝트 전체를 구동하여 당해 제2 상대 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트가 목표 제2 서브 영역을 향하도록 할 수 있으며, 상술한 바와 같이, 상기 제2 상대 각도 및 상기 인터랙티브 오브젝트의 각 부위에 대응하는 가중치에 따라 상기 인터랙티브 오브젝트의 각 부위를 구동하여 대응하는 편향 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트가 상기 목표 제2 서브 영역을 향하도록 할 수 있다.
여러 실시예에 있어서, 상기 표시 디바이스는 투명한 디스플레이 스크린일 수 있고, 거기에 표시된 인터랙티브 오브젝트는 입체 효과를 가지는 가상 캐릭터를 포함할 수 있다. 목표 오브젝트가 표시 디바이스의 뒤에서 나타날 때, 즉 인터랙티브 오브젝트의 뒷면에서 나타날 때, 목표 오브젝트의 제1 이미지 내의 제1 위치의 가상 공간 내에 매핑된 제2 위치는 인터랙티브 오브젝트의 뒤에 있다. 인터랙티브 오브젝트의 정면 방향과 매핑된 제2 위치 사이의 제1 상대 각도로 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 함으로써, 인터랙티브 오브젝트가 몸을 돌려 상기 목표 오브젝트와 마주하도록 할 수 있다.
도7은 본 발명의 적어도 하나의 실시예에 따른 인터랙티브 오브젝트 구동 장치의 구조의 모식도를 나타낸다. 도7에 나타낸바와 같이, 당해 장치는 제1 취득 유닛(701), 제2 취득 유닛(702), 확정 유닛(703) 및 구동 유닛(704)을 구비할 수 있다.
여기서, 제1 취득 유닛(701)은 표시 디바이스 주변의 제1 이미지를 얻고, 상기 표시 디바이스는 인터랙티브 오브젝트 및 상기 인터랙티브 오브젝트가 위치하는 가상 공간을 표시하고, 제2 취득 유닛(702)은 목표 오브젝트의 상기 제1 이미지 내의 제1 위치를 얻으며, 확정 유닛(703)은 상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여, 상기 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정하고, 구동 유닛(704)은 상기 제1 위치 및 상기 매핑 관계에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 한다.
여러 실시예에 있어서, 구동 유닛(704)은 구체적으로 상기 매핑 관계에 기반하여 상기 제1 위치를 상기 가상 공간에 매핑하여 목표 오브젝트의 상기 가상 공간 내의 대응하는 제2 위치를 얻고, 상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 한다.
여러 실시예에 있어서, 구동 유닛(704)은 상기 제2 위치에 기반하여, 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 때, 구체적으로 상기 제2 위치에 기반하여, 가상 공간에 매핑된 목표 오브젝트와 상기 인터랙티브 오브젝트 사이의 제1 상대 각도를 확정하고, 상기 인터랙티브 오브젝트에 하나 또는 복수의 신체 부위가 동작을 실행하는 가중치를 확정하며, 상기 제1 상대 각도 및 상기 가중치에 따라, 상기 인터랙티브 오브젝트의 각 신체 부위를 구동하여 대응하는 편향 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트가 상기 가상 공간에 매핑된 목표 오브젝트를 향하도록 한다.
여러 실시예에 있어서, 상기 가상 공간의 이미지 데이터와 상기 인터랙티브 오브젝트의 이미지 데이터는 가상 촬영 디바이스에 의해 취득된다.
여러 실시예에 있어서, 구동 유닛(704)은 상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 때, 구체적으로 상기 가상 촬영 디바이스의 가상 공간 내의 위치를 상기 제2 위치에 이동시키고, 상기 인터랙티브 오브젝트의 시선을 설정하여 당해 시선이 상기 가상 촬영 디바이스를 겨냥하도록 한다.
여러 실시예에 있어서, 구동 유닛(704)은 상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 때, 구체적으로 상기 인터랙티브 오브젝트를 구동하여 시선을 상기 제2 위치에 이동시키는 동작을 실행하도록 한다.
여러 실시예에 있어서, 구동 유닛(704)은 구체적으로 상기 매핑 관계에 기반하여 상기 제1 이미지를 상기 가상 공간에 매핑하여 제2 이미지를 얻고, 상기 제1 이미지를 복수의 제1 서브 영역으로 분할하며, 상기 제2 이미지를 상기 복수의 제1 서브 영역에 각각 대응하는 복수의 제2 서브 영역으로 분할하고, 상기 제1 이미지에서 상기 목표 오브젝트가 위치하는 목표 제1 서브 영역을 확정하며, 상기 목표 제1 서브 영역에 기반하여 대응하는 목표 제2 서브 영역을 확정하고, 상기 목표 제2 서브 영역에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 한다.
여러 실시예에 있어서, 구동 유닛(704)은 상기 목표 제2 서브 영역에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 때, 구체적으로 상기 인터랙티브 오브젝트와 상기 목표 제2 서브 영역 사이의 제2 상대 각도를 확정하고, 상기 인터랙티브 오브젝트를 구동하여 상기 제2 상대 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트로 하여금 상기 목표 제2 서브 영역을 향하도록 한다.
여러 실시예에 있어서, 확정 유닛(703)은 구체적으로 상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정하고, 상기 제1 이미지의 픽셀 평면의 상기 가상 공간 내의 대응하는 매핑 평면을 확정하며, 상기 인터랙티브 오브젝트와 상기 매핑 평면 사이의 축 방향 거리를 확정한다. 상기 매핑 평면은 상기 제1 이미지의 픽셀 평면을 상기 가상 공간에 매핑하여 얻어진 것이다.
여러 실시예에 있어서, 확정 유닛(703)은 상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정할 때, 구체적으로 상기 제1 이미지의 단위 픽셀 거리와 실제 공간의 단위 거리 사이의 제1 비례 관계를 확정하고, 실제 공간의 단위 거리와 가상 공간의 단위 거리 사이의 제2 비례 관계를 확정하며, 상기 제1 비례 관계 및 상기 제2 비례 관계에 기반하여, 상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정한다.
여러 실시예에 있어서, 상기 목표 오브젝트의 상기 제1 이미지 내의 제1 위치는 목표 오브젝트의 얼굴 부분의 위치 및/또는 목표 오브젝트의 신체 위치를 포함한다.
본 명세서의 적어도 하나의 실시예는 전자 디바이스를 더 제공한다. 도 8에 나타낸바와 같이, 상기 디바이스는 기록 매체(801), 프로세서(802), 네트워크 인터페이스(803)를 구비한다. 기록 매체 (801)는 프로세서 상에서 실행될 수 있는 컴퓨터 명령을 저장하며, 프로세서는 상기 컴퓨터 명령이 실행될 때에 본 발명의 임의의 하나의 실시예에 기재된 인터랙티브 오브젝트 구동 방법을 실시한다. 본 명세서의 적어도 하나의 실시예는, 컴퓨터 판독 가능 기록 매체를 더 제공한다. 당해 컴퓨터 판독 가능 기록 매체에는 컴퓨터 프로그램이 기억되어 있으며, 상기 프로그램이 프로세서에 의해 실행될 때에, 본 발명의 임의의 하나의 실시예에 기재된 인터랙티브 오브젝트 구동 방법이 실시된다.
당업자는 본 발명의 하나 또는 복수의 실시예는 방법, 시스템 또는 컴퓨터 프로그램 제품으로서 제공할 수 있음을 이해해야 한다. 따라서, 본 발명의 하나 또는 복수의 실시예는 완전한 하드웨어의 실시예, 완전한 소프트웨어의 실시예 또는 소프트웨어와 하드웨어를 조합시키는 실시예의 형식을 채택할 수 있다. 또한 본 발명의 하나 또는 복수의 실시예는 컴퓨터 이용 가능한 프로그램 코드를 포함하는 하나 또는 복수의 컴퓨터 이용 가능한 기록 매체(디스크 메모리, CD-ROM, 광학 메모리 등을 포함하지만, 이에 한정되지 않음) 상에서 실시되는 컴퓨터 프로그램 제품의 형식을 채택할 수 있다.
본 발명의 각 실시예는 모두 점진적인 방식을 이용하여 서술되었으며, 각 실시예들 사이의 동일 또는 유사한 부분은 서로 참조할 수 있고, 각 실시예에서는 기타 실시예와의 차이점에 중점을 맞춰 설명했다. 특히 데이터 처리 디바이스의 실시예의 경우, 기본적으로 방법의 실시예와 유사하기 때문에 상대적으로 간단히 서술했지만, 관련되는 부분은 방법의 실시예의 부분 설명을 참조하면 된다.
상기에서 본 발명의 특정의 실시예를 서술했다. 기타 실시예는 첨부된 "특허 청구의 범위”의 범위 내에 있다. 몇몇의 경우, 특허 청구의 범위에 기재된 행위 또는 단계는 실시예와 서로 다른 순서에 따라 실행될 수 있으며, 이 경우에도 여전히 기대하는 결과가 실현될 수 있다. 또한 도면에 나타낸 과정은, 기대하는 결과를 얻기 위하여, 반드시 나타낸 특정 순서 또는 연속적인 순서를 필요로 하지 않는다. 몇몇의 실시 형태에 있어서, 멀티 태스크 처리 및 병렬 처리가 가능하거나, 또한 더 유리할 수도 있다.
본 발명의 주제 및 기능 조작의 실시예는 디지털 전자 회로, 유형 컴퓨터 소프트웨어 또는 펌웨어, 본 발명에 개시되는 구성 및 그 구조적 등가물을 포함하는 컴퓨터 하드웨어 또는 이들의 하나 또는 복수의 조합으로 실현될 수 있다. 본 발명의 주제의 실시예는 하나 또는 복수의 컴퓨터 프로그램으로 실현될 수 있는바, 즉 유형 비 일시적 프로그램 캐리어 상에 부호화되며, 데이터 처리 장치에 의해 실행되거나, 또는 데이터 처리 장치의 조작을 제어하기 위한 컴퓨터 프로그램 명령 중의 하나 또는 복수의 모듈에 의해 실현될 수 있다. 대체적 또는 추가적으로, 프로그램 명령은 수동으로 생성되는 전파 신호 상에 부호화될 수 있는바, 예를 들면 기계에 의해 생성되는 전기신호, 광학 신호 또는 전자신호로 부호화될 수 있다. 당해 신호는 정보를 부호화하여 적절한 수신기 장치에 전송함으로써 데이터 처리 장치에 의해 실행되도록 하기 위하여 생성된다. 컴퓨터 기록 매체는 기계 판독 가능 기억 디바이스, 기계 판독 가능 기억 기판, 랜덤 액세스 메모리 디바이스 또는 직렬 액세스 메모리 디바이스 또는 이들의 하나 또는 복수의 조합일 수 있다.
본 명세서에 서술된 발명의 처리와 논리 플로우는 하나 또는 복수의 컴퓨터 프로그램을 실행하는 하나 또는 복수의 프로그램 가능한 컴퓨터에 의해 실행될 수 있으며, 입력 데이터에 기반하여 조작을 실행하여 출력을 생성함으로써 해당하는 기능을 실행한다. 상기 처리와 논리 플로우는 또한 예를 들면 FPGA(필드 프로그래머블 게이트 어레이) 또는 ASIC(전용 집적 회로)등의 전용 논리 회로에 의해 실행될 수 있으며, 또한 장치도 전용 논리 회로로 실현될 수 있다.
컴퓨터 프로그램의 실행에 적합한 컴퓨터는 예를 들면 범용 및/또는 전용 마이크로 프로세서 또는 임의의 기타 종류의 중앙 처리 유닛을 포함한다. 일반적으로, 중앙 처리 유닛은 판독 전용 메모리 및/또는 랜덤 액세스 메모리로부터 명령과 데이터를 수신하게 된다. 컴퓨터의 기본 컴포넌트는 명령을 실시 또는 실행하기 위한 중앙 처리 유닛 및 명령과 데이터를 기억하기 위한 하나 또는 복수의 메모리 디바이스를 구비한다. 일반적으로, 컴퓨터는 자기 디스크, 자기 광학 디스크 또는 광학 디스크 등의 데이터를 기억하기 위한 하나 또는 복수의 대용량 기억 디바이스를 더 구비하거나, 또는 조작 가능하도록 당해 대 용량 기억 디바이스와 결합되어 데이터를 수신하거나 또는 데이터를 전송하거나, 또는 이 양자를 모두 포함한다. 그러나, 컴퓨터는 반드시 이러한 디바이스를 구비하는 것이 아니다. 한편, 컴퓨터는 다른 하나의 디바이스에 내장될 수 있는바, 예를 들면 휴대 전화, 개인 디지털 보조(PDA), 모바일 오디오 또는 비디오 플레이어, 게임 콘솔, 글로벌 포지셔닝 시스템(GPS) 수신기 또는 범용 시리얼 버스(USB) 플래시 드라이브 등의 포터블 기억 디바이스에 내장될 수 있고, 이러한 디바이스는 몇몇의 예에 지나지 않는다.
컴퓨터 프로그램 명령과 데이터의 기억에 적합한 컴퓨터 판독 가능 매체는 모든 형태의 비 휘발성 메모리, 매체 및 메모리 디바이스를 구비하는바, 예를 들면 반도체 메모리 디바이스(예를 들면 EPROM, EEPROM 및 플래시 디바이스), 자기 디스크(예를 들면 내부 하드 디스크 또는 이동 가능 디스크), 자기 광학 디스크 및 CD ROM 및 DVD-ROM디스크를 포함한다. 프로세서와 메모리는 전용 논리 회로에 의해 보완되거나 또는 전용 논리 회로에 구비될 수 있다.
본 발명은 많은 구체적인 실시의 세부 사항을 포함하지만, 이를 본 발명의 범위 또는 보호하려고 하는 범위를 한정하는 것으로 해석해서는 안되며, 주로 본 발명을 특정하는 몇몇의 실시예의 특징을 서술하기 위하여 사용된다. 본 발명의 복수의 실시예 중의 일부 특징은 단일 실시예에 조합되어 실시될 수도 있다. 서로 다른 한편, 단일 실시예 중의 각 특징은 복수의 실시예로 독립적으로 실시되거나 또는 임의의 적절한 서브 조합으로 실시될 수도 있다. 또한, 특징이 상기와 같이 특정의 조합으로 역할을 발휘하며, 또한 처음부터 상기와 같이 보호하는 것으로 주장했지만, 보호하는 것으로 주장한 조합 중의 하나 또는 복수의 특징은 경우에 따라 당해 조합으로부터 제외될 수도 있고, 또한 보호하는 것으로 주장한 조합은 서브 조합 또는 서브 조합의 변형을 지향할 수 있다.
마찬가지로, 도면에서 특정 순서에 따라 조작을 나타냈지만, 이는 이러한 조작을 나타낸 특정 순서에 따라 실행하도록 요구하거나 또는 순차적으로 실행하도록 요구하거나, 또는 예시한 모든 조작이 실행됨으로써 기대하는 결과가 실현되는 것을 요구하는 것으로 이해해서는 안된다. 경우에 따라 멀티 태스크 및 병렬 처리가 더 유리할 가능성이 있다. 한편, 상기의 실시예 중의 각 종의 시스템 모듈과 컴포넌트의 분리가 모든 실시예에서 모두 이렇게 분리되지 않으면 안되는 것으로 이해해서는 안되며, 또한 서술한 프로그램 컴포넌트와 시스템은 일반적으로 함께 단일 소프트웨어 제품에 통합되거나 또는 복수의 소프트웨어 제품에 패키징될 수 있음을 이해해야 한다.
따라서, 주제가 특정의 실시예가 이미 서술되었다. 기타 실시예는 첨부된 "특허 청구의 범위”의 범위 내에 있다. 경우에 따라 특허 청구의 범위에 기재되어 있는 동작은 기타 순서에 따라 실행될 경우에도 여전히 기대하는 결과가 실현될 수 있다. 한편, 도면에 나타낸 처리는 기대하는 결과를 실현하기 위하여, 반드시 나타낸 특정 순서 또는 순차를 필요로 하지 않는다. 일부 구현에 있어서, 멀티 태스크 및 병렬 처리가 더 유리할 가능성이 있다.
상기는 본 명세서의 하나 또는 복수의 실시예의 바람직한 실시예에 불과할 뿐, 본 명세서의 하나 또는 복수의 실시예를 한정하기 위하여 사용되는 것이 아니다. 본 명세서의 하나 또는 복수의 실시예의 사상과 원칙의 범위 내에서 행하여진 어떠한 수정, 등가 치환, 개량 등은 모두 본 명세서의 하나 또는 복수의 실시예가 보호하는 범위에 포함되어야 한다.

Claims (25)

  1. 인터랙티브 오브젝트 구동 방법으로서,
    인터랙티브 오브젝트 및 상기 인터랙티브 오브젝트가 위치하는 가상 공간을 표시하기 위한 표시 디바이스의 주변의 제1 이미지를 얻는 것;
    목표 오브젝트의 상기 제1 이미지 내의 제1 위치를 얻는 것;
    상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여, 상기 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정하는 것; 및
    상기 제1 위치 및 상기 매핑 관계에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것을 포함하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  2. 제1항에 있어서,
    상기 제1 위치 및 상기 매핑 관계에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은,
    상기 매핑 관계에 기반하여 상기 제1 위치를 상기 가상 공간에 매핑하여 목표 오브젝트의 상기 가상 공간 내의 대응하는 제2 위치를 얻는 것; 및
    상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것을 포함하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  3. 제2항에 있어서,
    상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은,
    상기 제2 위치에 기반하여 가상 공간에 매핑된 목표 오브젝트와 상기 인터랙티브 오브젝트 사이의 제1 상대 각도를 확정하는 것;
    상기 인터랙티브 오브젝트에 하나 또는 복수의 신체 부위가 동작을 실행하는 가중치를 확정하는 것; 및
    상기 제1 상대 각도 및 상기 가중치에 따라 상기 인터랙티브 오브젝트의 각 신체 부위를 구동하여 대응하는 편향 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트가 상기 가상 공간에 매핑된 목표 오브젝트를 향하도록 하는 것을 포함하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 가상 공간의 이미지 데이터와 상기 인터랙티브 오브젝트의 이미지 데이터는 가상 촬영 디바이스에 의해 취득되는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  5. 제4항에 있어서,
    상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은,
    상기 가상 촬영 디바이스의 상기 가상 공간 내의 위치를 상기 제2 위치에 이동시키는 것; 및
    상기 인터랙티브 오브젝트의 시선을 설정하여 당해 시선이 상기 가상 촬영 디바이스를 겨냥하도록 하는 것을 포함하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  6. 제2항 내지 제4항 중 어느 한 항에 있어서,
    상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은,
    상기 인터랙티브 오브젝트를 구동하여 시선을 상기 제2 위치에 이동시키는 동작을 실행하도록 하는 것을 포함하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  7. 제1항에 있어서,
    상기 제1 위치 및 상기 매핑 관계에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은,
    상기 매핑 관계에 기반하여 상기 제1 이미지를 상기 가상 공간에 매핑하여 제2 이미지를 얻는 것;
    상기 제1 이미지를 복수의 제1 서브 영역으로 분할하고, 상기 제2 이미지를 상기 복수의 제1 서브 영역에 각각 대응하는 복수의 제2 서브 영역으로 분할하는 것;
    상기 제1 이미지의 상기 복수의 제1 서브 영역 중에서 상기 목표 오브젝트가 위치하는 목표 제1 서브 영역을 확정하고, 상기 목표 제1 서브 영역에 기반하여 상기 제2 이미지의 상기 복수의 제2 서브 영역 중의 목표 제2 서브 영역을 확정하는 것; 및
    상기 목표 제2 서브 영역에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것을 포함하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  8. 제7항에 있어서,
    상기 목표 제2 서브 영역에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는 것은,
    상기 인터랙티브 오브젝트와 상기 목표 제2 서브 영역 사이의 제2 상대 각도를 확정하는 것; 및
    상기 인터랙티브 오브젝트를 구동하여 상기 제2 상대 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트가 상기 목표 제2 서브 영역을 향하도록 하는 것을 포함하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여, 상기 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정하는 것은,
    상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정하는 것;
    상기 제1 이미지의 픽셀 평면의 상기 가상 공간 내의 대응하는 매핑 평면을 확정하는 것; 및
    상기 인터랙티브 오브젝트와 상기 매핑 평면 사이의 축 방향 거리를 확정하는 것을 포함하되,
    상기 매핑 평면은 상기 제1 이미지의 픽셀 평면을 상기 가상 공간에 매핑하여 얻어진
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  10. 제9항에 있어서,
    상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정하는 것은,
    상기 제1 이미지의 단위 픽셀 거리와 실제 공간의 단위 거리 사이의 제1 비례 관계를 확정하는 것;
    실제 공간의 단위 거리와 가상 공간의 단위 거리 사이의 제2 비례 관계를 확정하는 것; 및
    상기 제1 비례 관계 및 상기 제2 비례 관계에 기반하여 상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정하는 것을 포함하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 목표 오브젝트의 상기 제1 이미지 내의 제1 위치는 목표 오브젝트의 얼굴 부분의 위치 및/또는 목표 오브젝트의 신체 위치를 포함하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 방법.
  12. 인터랙티브 오브젝트 구동 장치로서,
    인터랙티브 오브젝트 및 상기 인터랙티브 오브젝트가 위치하는 가상 공간을 표시하기 위한 표시 디바이스의 주변의 제1 이미지를 얻기 위한 제1 취득 유닛;
    목표 오브젝트의 상기 제1 이미지 내의 제1 위치를 얻기 위한 제2 취득 유닛;
    상기 인터랙티브 오브젝트의 상기 가상 공간 내의 위치를 참조점으로 하여, 상기 제1 이미지와 상기 가상 공간 사이의 매핑 관계를 확정하기 위한 확정 유닛; 및
    상기 제1 위치 및 상기 매핑 관계에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하기 위한 구동 유닛을 구비하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  13. 제12항에 있어서,
    상기 구동 유닛은,
    상기 매핑 관계에 기반하여 상기 제1 위치를 상기 가상 공간에 매핑하여 목표 오브젝트의 상기 가상 공간 내의 대응하는 제2 위치를 얻고,
    상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  14. 제13항에 있어서,
    상기 구동 유닛은 상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 때,
    상기 제2 위치에 기반하여 가상 공간에 매핑된 목표 오브젝트와 상기 인터랙티브 오브젝트 사이의 제1 상대 각도를 확정하고,
    상기 인터랙티브 오브젝트에 하나 또는 복수의 신체 부위가 동작을 실행하는 가중치를 확정하며,
    상기 제1 상대 각도 및 상기 가중치에 따라 상기 인터랙티브 오브젝트의 각 신체 부위를 구동하여 대응하는 편향 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트가 상기 가상 공간에 매핑된 목표 오브젝트를 향하도록 하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  15. 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 가상 공간의 이미지 데이터와 상기 인터랙티브 오브젝트의 이미지 데이터는 가상 촬영 디바이스에 의해 취득되는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  16. 제15항에 있어서,
    상기 구동 유닛은 상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 때,
    상기 가상 촬영 디바이스의 상기 가상 공간 내의 위치를 상기 제2 위치에 이동시키고,
    상기 인터랙티브 오브젝트의 시선을 설정하여 당해 시선이 상기 가상 촬영 디바이스를 겨냥하도록 하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  17. 제13항 내지 제15항 중 어느 한 항에 있어서,
    상기 구동 유닛은 상기 제2 위치에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 때,
    상기 인터랙티브 오브젝트를 구동하여 시선을 상기 제2 위치에 이동시키는 동작을 실행하도록 하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  18. 제12항에 있어서,
    상기 구동 유닛은,
    상기 매핑 관계에 기반하여 상기 제1 이미지를 상기 가상 공간에 매핑하여 제2 이미지를 얻고,
    상기 제1 이미지를 복수의 제1 서브 영역으로 분할하며, 상기 제2 이미지를 상기 복수의 제1 서브 영역에 각각 대응하는 복수의 제2 서브 영역으로 분할하고,
    상기 제1 이미지의 상기 복수의 제1 서브 영역 중에서 상기 목표 오브젝트가 위치하는 목표 제1 서브 영역을 확정하며, 상기 목표 제1 서브 영역에 기반하여 상기 제2 이미지의 상기 복수의 제2 서브 영역 중의 목표 제2 서브 영역을 확정하고,
    상기 목표 제2 서브 영역에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  19. 제18항에 있어서,
    상기 구동 유닛은 상기 목표 제2 서브 영역에 기반하여 상기 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 할 때,
    상기 인터랙티브 오브젝트와 상기 목표 제2 서브 영역 사이의 제2 상대 각도를 확정하고,
    상기 인터랙티브 오브젝트를 구동하여 상기 제2 상대 각도를 회전하도록 함으로써, 상기 인터랙티브 오브젝트가 상기 목표 제2 서브 영역을 향하도록 하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  20. 제12항 내지 제19항 중 어느 한 항에 있어서,
    상기 확정 유닛은,
    상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정하고,
    상기 제1 이미지의 픽셀 평면의 상기 가상 공간 내의 대응하는 매핑 평면을 확정하며,
    상기 인터랙티브 오브젝트와 상기 매핑 평면 사이의 축 방향 거리를 확정하되,
    상기 매핑 평면은 상기 제1 이미지의 픽셀 평면을 상기 가상 공간에 매핑하여 얻어진
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  21. 제20항에 있어서,
    상기 확정 유닛은 상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정할 때,
    상기 제1 이미지의 단위 픽셀 거리와 실제 공간의 단위 거리 사이의 제1 비례 관계를 확정하고,
    실제 공간의 단위 거리와 가상 공간의 단위 거리 사이의 제2 비례 관계를 확정하며,
    상기 제1 비례 관계 및 상기 제2 비례 관계에 기반하여 상기 제1 이미지의 단위 픽셀 거리와 가상 공간의 단위 거리 사이의 비례 관계를 확정하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  22. 제12항 내지 제21항 중 어느 한 항에 있어서,
    상기 목표 오브젝트의 상기 제1 이미지 내의 제1 위치는 목표 오브젝트의 얼굴 부분의 위치 및/또는 목표 오브젝트의 신체 위치를 포함하는
    것을 특징으로 하는 인터랙티브 오브젝트 구동 장치.
  23. 표시 디바이스로서,
    상기 표시 디바이스에는 투명 디스플레이 스크린이 배치되어 있으며, 상기 투명 디스플레이 스크린은 인터랙티브 오브젝트를 표시하고, 상기 표시 디바이스는 상기 투명 디스플레이 스크린에 표시된 인터랙티브 오브젝트를 구동하여 동작을 실행하도록 하여, 제1항 내지 제11항 중 어느 한 항에 기재된 방법을 실행하는
    것을 특징으로 하는 표시 디바이스.
  24. 전자 디바이스로서,
    상기 전자 디바이스는 기록 매체와 프로세서를 구비하고, 상기 기록 매체는 프로세서 상에서 실행될 수 있는 컴퓨터 명령을 저장하며, 상기 프로세서는 상기 컴퓨터 명령이 실행될 때 제1항 내지 제11항 중 어느 한 항에 기재된 방법을 실시하는
    것을 특징으로 하는 전자 디바이스.
  25. 컴퓨터 프로그램이 저장되는 컴퓨터 판독 가능 기록 매체로서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때, 제1항 내지 제11항 중 어느 한 항에 기재된 방법이 실시되는
    것을 특징으로 하는 컴퓨터 판독 가능 기록 매체.
KR1020217031143A 2019-11-28 2020-07-24 인터랙티브 오브젝트 구동 방법, 장치, 디바이스 및 기록 매체 KR20210131414A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911193989.1 2019-11-28
CN201911193989.1A CN110968194A (zh) 2019-11-28 2019-11-28 交互对象的驱动方法、装置、设备以及存储介质
PCT/CN2020/104593 WO2021103613A1 (zh) 2019-11-28 2020-07-24 交互对象的驱动方法、装置、设备以及存储介质

Publications (1)

Publication Number Publication Date
KR20210131414A true KR20210131414A (ko) 2021-11-02

Family

ID=70032085

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217031143A KR20210131414A (ko) 2019-11-28 2020-07-24 인터랙티브 오브젝트 구동 방법, 장치, 디바이스 및 기록 매체

Country Status (6)

Country Link
US (1) US20220215607A1 (ko)
JP (1) JP2022526512A (ko)
KR (1) KR20210131414A (ko)
CN (1) CN110968194A (ko)
TW (1) TWI758869B (ko)
WO (1) WO2021103613A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110968194A (zh) * 2019-11-28 2020-04-07 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN111488090A (zh) * 2020-04-13 2020-08-04 北京市商汤科技开发有限公司 交互方法、装置、交互系统、电子设备及存储介质
CN111639613B (zh) * 2020-06-04 2024-04-16 上海商汤智能科技有限公司 一种增强现实ar特效生成方法、装置及电子设备
CN114385000A (zh) * 2021-11-30 2022-04-22 达闼机器人有限公司 智能设备控制方法、装置、服务器和存储介质
CN114385002B (zh) * 2021-12-07 2023-05-12 达闼机器人股份有限公司 智能设备控制方法、装置、服务器和存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244322A (ja) * 2009-04-07 2010-10-28 Bitto Design Kk コミュニケーションキャラクター装置、及びそのプログラム
CN101930284B (zh) * 2009-06-23 2014-04-09 腾讯科技(深圳)有限公司 一种实现视频和虚拟网络场景交互的方法、装置和系统
CN102004840B (zh) * 2009-08-28 2013-09-11 深圳泰山在线科技有限公司 一种基于计算机实现虚拟拳击的方法和系统
TWI423114B (zh) * 2011-02-25 2014-01-11 Liao Li Shih 互動式裝置及其運作方法
TWM440803U (en) * 2011-11-11 2012-11-11 Yu-Chieh Lin Somatosensory deivice and application system thereof
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
US9070217B2 (en) * 2013-03-15 2015-06-30 Daqri, Llc Contextual local image recognition dataset
EP3062219A1 (en) * 2015-02-25 2016-08-31 BAE Systems PLC A mixed reality system and method for displaying data therein
CN105183154B (zh) * 2015-08-28 2017-10-24 上海永为科技有限公司 一种虚拟对象和实景影像的互动展示方法
US20180353869A1 (en) * 2015-12-17 2018-12-13 Lyrebird Interactive Holdings Pty Ltd Apparatus and method for an interactive entertainment media device
US10282912B1 (en) * 2017-05-26 2019-05-07 Meta View, Inc. Systems and methods to provide an interactive space over an expanded field-of-view with focal distance tuning
CN107277599A (zh) * 2017-05-31 2017-10-20 珠海金山网络游戏科技有限公司 一种虚拟现实的直播方法、装置和系统
US20190196690A1 (en) * 2017-06-23 2019-06-27 Zyetric Virtual Reality Limited First-person role playing interactive augmented reality
CN107341829A (zh) * 2017-06-27 2017-11-10 歌尔科技有限公司 虚拟现实交互部件的定位方法和装置
JP2018116684A (ja) * 2017-10-23 2018-07-26 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
WO2019130992A1 (ja) * 2017-12-26 2019-07-04 株式会社Nttドコモ 情報処理装置
CN108227931A (zh) * 2018-01-23 2018-06-29 北京市商汤科技开发有限公司 用于控制虚拟人物的方法、设备、系统、程序和存储介质
JP7041888B2 (ja) * 2018-02-08 2022-03-25 株式会社バンダイナムコ研究所 シミュレーションシステム及びプログラム
JP2019197499A (ja) * 2018-05-11 2019-11-14 株式会社スクウェア・エニックス プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法
CN108805989B (zh) * 2018-06-28 2022-11-11 百度在线网络技术(北京)有限公司 场景穿越的方法、装置、存储介质和终端设备
CN109658573A (zh) * 2018-12-24 2019-04-19 上海爱观视觉科技有限公司 一种智能门锁系统
CN110968194A (zh) * 2019-11-28 2020-04-07 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
US20220215607A1 (en) 2022-07-07
WO2021103613A1 (zh) 2021-06-03
TW202121155A (zh) 2021-06-01
CN110968194A (zh) 2020-04-07
JP2022526512A (ja) 2022-05-25
TWI758869B (zh) 2022-03-21

Similar Documents

Publication Publication Date Title
KR20210131414A (ko) 인터랙티브 오브젝트 구동 방법, 장치, 디바이스 및 기록 매체
US10309762B2 (en) Reference coordinate system determination
US10832480B2 (en) Apparatuses, methods and systems for application of forces within a 3D virtual environment
US9824500B2 (en) Virtual object pathing
KR102212250B1 (ko) 증강 현실 오브젝트의 신체 고정식 배치
US20220122331A1 (en) Interactive method and system based on augmented reality device, electronic device, and computer readable medium
CN105981076B (zh) 合成增强现实环境的构造
US10126553B2 (en) Control device with holographic element
CN110603515A (zh) 利用共享锚点显示的虚拟内容
US20160210785A1 (en) Augmented reality system and method for positioning and mapping
US20140168268A1 (en) Information processing device, information processing method, and program
CN109448050B (zh) 一种目标点的位置的确定方法及终端
JP2012053631A (ja) 情報処理装置、情報処理方法
CN112729327A (zh) 一种导航方法、装置、计算机设备及存储介质
US11335008B2 (en) Training multi-object tracking models using simulation
CN111161398B (zh) 一种图像生成方法、装置、设备及存储介质
CN106536004B (zh) 增强的游戏平台
KR102148103B1 (ko) 스테레오 카메라를 장착한 드론을 이용한 혼합현실 환경 생성 방법 및 장치
US20180158171A1 (en) Display apparatus and controlling method thereof
JP2012103743A (ja) 仮想情報付与装置及び仮想情報付与プログラム
US20180160093A1 (en) Portable device and operation method thereof
EP3627288A1 (en) Camera module and system using the same
US20210263308A1 (en) Apparatus configured to display shared information on plurality of display apparatuses and method thereof
CN112891940A (zh) 图像数据处理方法及装置、存储介质、计算机设备
KR101741149B1 (ko) 가상 카메라의 시점 제어 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
WITB Written withdrawal of application