KR102118000B1 - 타겟 대상 표시 방법 및 디바이스 - Google Patents

타겟 대상 표시 방법 및 디바이스 Download PDF

Info

Publication number
KR102118000B1
KR102118000B1 KR1020187025999A KR20187025999A KR102118000B1 KR 102118000 B1 KR102118000 B1 KR 102118000B1 KR 1020187025999 A KR1020187025999 A KR 1020187025999A KR 20187025999 A KR20187025999 A KR 20187025999A KR 102118000 B1 KR102118000 B1 KR 102118000B1
Authority
KR
South Korea
Prior art keywords
image
analysis data
image analysis
target object
target
Prior art date
Application number
KR1020187025999A
Other languages
English (en)
Other versions
KR20180111970A (ko
Inventor
뤄쉬 양
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20180111970A publication Critical patent/KR20180111970A/ko
Application granted granted Critical
Publication of KR102118000B1 publication Critical patent/KR102118000B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

타겟 대상 표시 방법 및 디바이스가 제공된다. 이 방법은: 카메라를 사용하여 물리적 카드를 촬영하여, 물리적 카드 상에 인쇄되고 카메라의 시야 내에서 카메라에 의해 촬영되는 타겟 인식 이미지를 획득하는 단계(101); 타겟 인식 이미지의 이미지 해석 데이터를 취득하는 단계(102)- 이미지 해석 데이터는 타겟 인식 이미지의 피처를 나타내기 위해 사용됨 -; 이미지 해석 데이터와 미리 저장된 이미지 해석 데이터 사이의 매치를 검색하는 단계(103); 및 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터 아이템에 대응하는 저장된 타겟 대상을 획득하고, 전자 장치의 디스플레이 스크린 상에 타겟 대상을 표시하는 단계(104)- 타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델임 -를 포함한다.

Description

타겟 대상 표시 방법 및 디바이스
본 출원은 2016년 3월 29일자로 중화 인민 공화국의 국가 지적 재산권국에 출원된 "TARGET OBJECT RENDITION METHOD AND APPARATUS"라는 명칭의 중국 특허 출원 제201610188631.X호에 대한 우선권을 주장하며, 그 전체가 참조로서 포함된다.
본 출원은 컴퓨터 기술 분야에 관한 것으로서, 특히 타겟 대상 전시 방법 및 장치에 관한 것이다.
네트워크 기술들의 발달로, 게임에서의 타겟 대상, 인원 관리 시스템에서의 인원 모델, 및 교통 분야에서의 교통 및 도로 상태 모델과 같은 보다 많은 시나리오에서 타겟 대상들이 제시될 필요가 있다.
배경에 다수의 타겟 대상이 있고, 사용자가 애플리케이션 프로그램에 의해 제공되는 타겟 대상을 보기를 원하는 경우, 사용자는 애플리케이션 프로그램의 시작 방식에 따라 애플리케이션 프로그램의 대응하는 윈도우를 열 필요가 있고, 대응하는 윈도우에서 타겟 대상과 관련된 파라미터를 입력한다. 그 후, 애플리케이션 프로그램은 파라미터에 따라 매칭하는 것에 의해 대응하는 타겟 대상을 획득하고 타겟 대상을 제시한다. 사용자는 애플리케이션 프로그램에서 타겟 대상을 보기 위해 상대적으로 복잡한 동작들을 수행할 필요가 있다. 따라서, 제시 효율성이 상대적으로 낮다.
이 출원은 사용자가 애플리케이션 프로그램에서 타겟 대상을 보기 위해 상대적으로 복잡한 동작들을 수행할 필요가 있기 때문에 제시 효율성이 상대적으로 낮다는 관련 기술들에서의 문제점을 해결하기 위한 것이다. 이 출원의 실시예들은 타겟 대상 전시 방법 및 장치를 제공한다. 기술적 해결책들은 다음과 같다:
이 출원의 실시예는 카메라 및 디스플레이 스크린을 포함하는 전자 디바이스에 적용되는 타겟 대상 전시 방법을 제공하며, 이 방법은 다음을 포함한다:
카메라를 사용하는 것에 의해 엔티티 카드를 촬영하여, 엔티티 카드 상에 인쇄되고 카메라의 시각 내에서 촬영되는 인식될 타겟 이미지를 획득하는 단계;
인식될 타겟 이미지의 이미지 해석 데이터를 획득하는 단계- 이미지 해석 데이터는 인식될 타겟 이미지의 피처를 반영하기 위해 사용됨 -;
이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하는 단계; 및
이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대응하는 저장된 타겟 대상을 획득하고, 디스플레이 스크린 상에 타겟 대상을 전시하는 단계- 타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델임 -.
이 출원의 실시예는 카메라 및 디스플레이 스크린을 포함하는 전자 디바이스에 적용되는 타겟 대상 전시 장치를 제공하며, 이 장치는 다음을 포함한다:
카메라를 사용하는 것에 의해 엔티티 카드를 촬영하여 엔티티 카드 상에 인쇄되고 카메라의 시각 내에서 촬영되는 인식될 타겟 이미지를 획득하도록 구성된 제1 획득 모듈;
제1 획득 모듈에 의해 획득된 인식될 타겟 이미지의 이미지 해석 데이터를 획득하도록 구성된 제2 획득 모듈- 이미지 해석 데이터는 제1 획득 모듈에 의해 획득된 인식될 타겟 이미지의 피처를 반영하기 위해 사용됨 -;
제2 획득 모듈에 의해 획득된 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하도록 구성된 매칭 모듈; 및
이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대응하는 저장된 타겟 대상을 획득하고, 타겟 대상을 디스플레이 스크린 상에 전시하도록 구성된 제시 모듈- 타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델임 -.
이 출원의 실시예들에서 제공되는 전술한 기술적 해결책들에서, 엔티티 카드 상에 인쇄된 인식될 타겟 이미지를 획득하는 것에 의해 인식될 타겟 이미지에 대응하는 가상 타겟 대상이 획득되고, 전자 디바이스의 디스플레이 스크린 상에 전시된다. 가상 타겟 대상은 엔티티 카드 상에서의 인식될 타겟 이미지 상에 카메라의 시각을 포커싱하는 것에 의해 자동적으로 획득되고, 사용자에 의해 복잡한 동작들을 수행할 필요 없이 전시될 수 있다. 따라서, 사용자가 애플리케이션 프로그램에서 타겟 대상을 보기 위해 상대적으로 복잡한 동작들을 수행할 필요가 있기 때문에 제시 효율성이 상대적으로 낮다는 관련 기술들에서의 기술적인 문제가 해결된다. 본 출원의 실시예들에서 제공되는 기술적 해결책들에 의해, 동작 복잡도가 감소될 수 있고, 그에 의해 제시 효율성이 개선될 수 있다.
본 출원의 실시예들에서의 기술적 해결책들을 보다 명확하게 설명하기 위해, 이하에서는 실시예들을 설명하기 위해 요구되는 첨부 도면들을 간단히 설명한다. 명백하게, 다음의 설명에서의 첨부 도면들은 단지 본 출원의 일부 실시예를 도시하고, 본 기술에서의 통상의 기술자는 창조적인 노력 없이도 이러한 첨부 도면들로부터 다른 도면들을 여전히 유도할 수 있다.
도 1은 본 발명의 실시예에 따른 타겟 대상 전시 방법의 흐름도이다;
도 2a는 본 출원의 다른 실시예에 따른 타겟 대상 전시 방법의 흐름도이다;
도 2b는 본 발명의 실시예에 따른 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하는 방법의 흐름도이다;
도 3a는 본 발명의 다른 실시예에 따른 타겟 대상 전시 방법의 흐름도이다;
도 3b는 본 출원의 실시예에 따라 애니메이션화된 전시의 이미지 프레임을 미리 저장된 이미지로서 사용하는 방법의 흐름도이다;
도 4는 본 출원의 실시예에 따른 타겟 대상 전시 장치의 개략 구조도이다;
도 5는 본 출원의 다른 실시예에 따른 타겟 대상 전시 장치의 개략 구조도이다; 및
도 6은 본 출원의 다른 실시예에 따른 타겟 대상 전시 방법을 구현하기 위한 전자 디바이스의 하드웨어의 개략 구조도이다.
본 출원의 목적들, 기술적 해결책들 및 장점들을 보다 명확하게 하기 위해, 이하에서는 첨부 도면들을 참조하여 본 출원의 구현예들을 상세히 추가로 설명한다. 본 명세서에 언급된 "전자 디바이스"는 스마트폰, 태블릿 컴퓨터, 스마트 텔레비전, 전자책 판독기, 멀티미디어 플레이어, 랩톱 휴대용 컴퓨터, 데스크톱 컴퓨터 등을 포함할 수 있다.
도 1을 참조하면, 도 1은 본 발명의 실시예에 따른 타겟 대상 전시 방법의 흐름도이다. 이 방법은 카메라 및 디스플레이 스크린을 포함하는 전자 디바이스에 적용된다. 타겟 대상 전시 방법은 다음 단계들을 포함할 수 있다:
단계 101: 카메라를 사용하는 것에 의해 엔티티 카드를 촬영하여, 엔티티 카드 상에 인쇄되고 카메라의 시각 내에서 촬영되는 인식될 타겟 이미지를 획득한다.
엔티티 카드는 파워-온 전자 디바이스(powered-on electronic device)와 독립적일 수 있다. 여기서, 엔티티 카드는 종이 또는 플라스틱과 같은 재료로 제조된 카드일 수 있다.
카드 상에 인쇄된 이미지는 투영 방향으로 형성되고 카드 상에 인쇄된 3차원 엔티티의 이미지일 수 있거나; 또는 카드 상에 인쇄된 가상 2차원 이미지일 수 있거나; 또는 투영 방향으로 형성되고 카드 상에 인쇄된 가상 3차원 모델의 이미지일 수 있다.
예를 들어, 게임 회사는 3차원 영웅 모델을 설계하고, 상이한 투영 방향들로 형성되고 카드 상에 인쇄된 3차원 영웅 모델의 이미지들을 사용자들에게 릴리즈한다. 다른 예의 경우, 부동산 회사는 상이한 각도들에서 촬영하는 것에 의해 획득되고 카드들 상에 인쇄된 집 엔티티의 이미지들을 사용자에게 릴리즈한다. 또 다른 예의 경우, 광고 회사는 카드들 상에 포스터를 인쇄한 후에 설계된 2차원 포스터들을 릴리즈한다.
카드 상의 이미지가 전자 디바이스의 카메라에 의해 촬영되고 인식될 필요가 있을 때, 카드 상의 이미지는 인식될 타겟 이미지로서 지칭된다.
단계 102: 인식될 타겟 이미지의 이미지 해석 데이터를 획득하고, 이미지 해석 데이터는 인식될 타겟 이미지의 피처를 반영하기 위해 사용된다.
일반적으로, 동일한 3차원 모델에 대해, 다수의 이미지가 상이한 투영 방향들로 형성된다. 이미지들의 이미지 해석 데이터는 유사한데, 즉, 이미지들 중 임의의 2개의 이미지의 이미지 해석 데이터 사이의 차이 값은 미리 설정된 차이 임계값보다 작다.
단계 103: 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭한다.
단계 104: 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대응하는 저장된 타겟 대상을 획득하고, 전자 디바이스의 디스플레이 스크린 상에 타겟 대상을 전시하고, 타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델이다.
타겟 대상은 엔티티 카드 상에 이미지를 형성하기 위한 기초인 가상 모델(즉, 전술한 가상 2차원 이미지 또는 가상 3차원 모델)이거나, 엔티티 카드 상에 이미지를 형성하기 위한 기초인 3차원 엔티티에 대응하는 가상 모델이다.
예를 들어, 카드 상에 인쇄된 이미지가 3차원 엔티티에 의해 획득될 때, 타겟 대상은 3차원 엔티티에 대응하는 가상 2차원 모델 또는 가상 3차원 모델이고; 카드 상에 인쇄된 이미지가 가상 2차원 이미지에 의해 획득될 때, 타겟 대상은 가상 2차원 이미지 또는 가상 2차원 이미지에 대응하는 가상 3차원 모델이고; 카드 상에 인쇄된 이미지가 가상 3차원 모델에 의해 획득된 경우에, 타겟 대상은 미리 설정된 투영 방향으로 형성되는 가상 3차원 모델의 가상 2차원 이미지 또는 가상 3차원 모델이다.
결론적으로, 본 실시예에서 제공되는 타겟 대상 전시 방법에서, 엔티티 카드 상에 인쇄된 인식될 타겟 이미지를 획득하는 것에 의해 인식될 타겟 이미지에 대응하는 가상 타겟 대상이 획득되고, 전자 디바이스의 디스플레이 스크린 상에 전시된다. 가상 타겟 대상은 엔티티 카드 상에서의 인식될 타겟 이미지 상에 카메라의 시각을 포커싱하는 것에 의해 자동적으로 획득되고, 사용자에 의해 복잡한 동작들을 수행할 필요 없이 전시될 수 있다. 따라서, 사용자가 애플리케이션 프로그램에서 타겟 대상을 보기 위해 상대적으로 복잡한 동작들을 수행할 필요가 있기 때문에 제시 효율성이 상대적으로 낮다는 관련 기술들에서의 기술적인 문제가 해결된다. 이 출원의 이 실시예에 제공된 타겟 대상 전시 방법에 의해, 동작 복잡도가 낮아짐으로써, 제시 효율성을 향상시킬 수 있다.
도 2a를 참조하면, 도 2a는 본 출원의 다른 실시예에 따른 타겟 대상 전시 방법의 흐름도이다. 이 방법은 카메라 및 디스플레이 스크린을 포함하는 전자 디바이스에 적용된다. 타겟 대상 전시 방법은 다음 단계들을 포함할 수 있다:
단계 201: 타겟 대상에 대응하는 미리 저장된 이미지를 획득한다.
타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델이다. 이 출원의 이 실시예에서, 타겟 대상은 정적 가상 모델일 수 있거나, 동적 가상 모델일 수 있다. 가상 모델은 다음과 같이 이해될 수 있다: 가상 모델은 파워-온 전자 디바이스를 사용하는 것에 의해서만 표시될 필요가 있을 수 있는데, 예를 들어, 타겟 대상은 파워-온 전자 디바이스의 디스플레이 스크린 상에 표시되거나, 타겟 대상의 2차원 또는 3차원 투영은 파워-온 전자 디바이스의 투영 기능을 사용하는 것에 의해 표시된다.
타겟 대상이 정적 가상 모델인 경우, 타겟 대상에 대응하는 미리 저장된 이미지는 타겟 대상의 타입에 따라 다음 2개 방식을 사용하는 것에 의해 타겟 대상에 대응하는 미리 저장된 이미지가 결정될 수 있다:
제1 구현예에서, 타겟 대상이 가상 2차원 모델일 때, 타겟 대상에 대응하는 미리 저장된 이미지는 2차원 모델에 대응하는 이미지이다;
제2 구현예에서, 타겟 대상이 가상 3차원 모델일 때, 타겟 대상에 대응하는 미리 저장된 이미지는 미리 설정된 투영 방향으로 형성된 3차원 모델의 이미지이다. 분명히, 타겟 대상에 대응하는 미리 저장된 이미지는 전자 이미지이다.
예를 들어, 타겟 대상은 가상 3차원 소파 모델이다. 시스템 개발 요원은 가상 3차원 소파 모델의 미리 저장된 이미지로서 가상 3차원 소파 모델의 측면도, 메인 뷰, 후면도 또는 평면도와 같은 전자 이미지를 사용할 수 있다.
이 출원의 이 실시예에서, 타겟 대상의 일부 요소가 변경될 수 있다. 이 경우, 요소들이 변경된 타겟 대상에 따라 타겟 대상에 대응하는 미리 저장된 이미지가 결정될 수 있다. 타겟 대상에 대응하는 미리 저장된 이미지를 결정하는 구현을 위한 전술한 2개의 구현예를 참조하고, 세부 사항들은 본 명세서에서 다시 설명되지 않는다.
예를 들어, 타겟 대상은 가상 캐릭터(예를 들어, 전투 영웅)일 수 있다. 게임 개발자들은 가상 캐릭터의 상이한 이미지들의 전자 이미지들을 가상 캐릭터의 미리 저장된 이미지들로서 사용할 수 있다. 본 명세서에서, 상이한 이미지들은 상이한 복장의(즉, 복장 요소를 변경한) 가상 캐릭터의 것일 수 있다. 상이한 시야 각들로부터의 가상 캐릭터의 투영 이미지들과 같은 전자 이미지들은 대안적으로 가상 문자의 미리 저장된 이미지들로서 사용될 수 있다.
타겟 대상이 동적 가상 모델인 경우, 타겟 대상에 대응하는 미리 저장된 이미지가 획득될 필요가 있을 때, 동적 가상 모델에 의해 제시된 이미지 프레임들에서의 임의의 키 이미지 프레임 또는 임의의 이미지 프레임은 타겟 대상의 미리 저장된 이미지로서 사용될 수 있다.
실제 디자인에서, 시스템 개발 요원에 의해 미리 저장된 이미지가 미리 설정되고, 타겟 대상과 미리 저장된 이미지 사이의 대응은 시스템 개발 요원에 의해 또한 설정된다. 예를 들어, 타겟 대상이 게임의 가상 영웅이라면, 시스템 개발 요원은 가상 영웅에 대응시키기 위한 다수의 미리 저장된 이미지를 선택할 수 있다. 이 실시예에서, 타겟 대상과 미리 저장된 이미지 사이의 대응을 설정하는 방식은 특별히 제한되지 않고, 실제 필요에 따라 선택될 수 있다.
실제 구현 동안, 미리 저장된 이미지는 엔티티 카드 상에 직접 인쇄되거나 기록될 수 있어서, 엔티티 카드는 후속하여 전자 디바이스의 카메라를 사용하는 것에 의해 실시간으로 촬영되어 카드 상에 인쇄된 이미지를 획득할 수 있다.
단계 202: 미리 저장된 이미지를 처리하여 이미지 해석 데이터를 생성하고, 이미지 해석 데이터는 미리 저장된 이미지의 피처를 반영하기 위해 사용된다.
이 출원의 이 실시예에서, 전자 디바이스는 미리 저장된 이미지의 이미지 해석 데이터를 생성하기 위해 미리 저장된 이미지를 소프트웨어 개발 키트, 예를 들어 증강 현실 소프트웨어(예를 들어, Vuforia) 개발 키트에 업로드할 수 있다. 이미지 해석 데이터는 예를 들어, 미리 저장된 이미지의 픽셀, 색상, 그레이스케일 값 등 중 적어도 하나를 반영하기 위해 미리 저장된 이미지의 피처를 반영하기 위해 사용된다. 2개의 이미지 해석 데이터 사이의 유사성이 더 높을 때, 이는 2개의 이미지 해석 데이터에 대응하는 2개의 이미지 사이의 유사성이 더 높다는 것을 나타낸다. 2개의 이미지 해석 데이터가 완전히 동일할 때, 이는 2개의 이미지 해석 데이터에 대응하는 이미지들이 동일하다는 것을 나타낸다.
단계 203: 이미지 해석 데이터 및 타겟 대상을 대응으로서 저장한다.
구현예에서, 이미지 해석 데이터가 획득된 후에, 미리 저장된 이미지에 대응하는 타겟 대상이 획득되고, 그 후 이미지 해석 데이터와 타겟 대상이 대응으로서 저장된다.
다른 구현예에서, 이미지 해석 데이터 및 타겟 대상은 시스템 개발 요원에 의해 전달된 매칭 명령어에 따라 대응으로서 저장될 수 있다.
예로서 타겟 대상이 가상 소파 모델이고, 소파 모델의 메인 뷰가 미리 저장된 이미지인 것을 사용하여, 시스템 개발 요원은 가상 소파 모델과 소파 모델의 메인 뷰의 이미지 해석 데이터를 대응으로서 저장한다.
시스템 개발 요원은 이미지 해석 데이터와 타겟 대상 사이의 대응을 추출하여, 단계 205 및 단계 206에서, 전자 디바이스 또는 서버가 인식될 이미지의 해석 데이터에 따라 인식될 이미지에 대응하는 타겟 대상을 결정한다.
단계 204: 카메라를 사용하는 것에 의해 엔티티 카드를 촬영하여 엔티티 카드 상에 위치되고 카메라의 시각 내에서 촬영되는 인식될 타겟 이미지를 획득한다.
예를 들어, 엔티티 카드가 인식될 타겟으로서 사용되는 경우, 사용자가 전자 디바이스의 카메라의 시각을 엔티티 카드에 포커싱할 때, 전자 디바이스는 엔티티 카드 상에 인쇄되는 인식될 타겟 이미지를 획득한다. 이 출원의 이 실시예에서, 카메라에 의해 이미지가 촬영된 후, 전자 디바이스는 이미지에 대해 전경(foreground) 인식을 수행하여 인식될 타겟 이미지를 획득한다. 이 실시예에서, 인식될 타겟 이미지에 대응하는 픽셀은 이미지의 전경이다.
단계 205: 인식될 타겟 이미지의 이미지 해석 데이터를 획득한다.
일반적으로, 전자 디바이스는 인식될 타겟 이미지를 서버에 업로드할 수 있고, 서버는 인식될 타겟 이미지에 따라 이미지 해석 데이터를 생성하여, 서버가 생성된 이미지 해석 데이터에 매칭되는 이미지 해석 데이터에 대해 데이터베이스를 검색할 수 있다.
이 출원의 이 실시예에서, 전자 디바이스는 인식될 타겟 이미지에 따라 이미지 해석 데이터를 직접 생성하고, 서버에 이미지 해석 데이터를 전송하여, 서버가 수신된 이미지 해석 데이터에 매칭되는 이미지 해석 데이터에 대해 데이터베이스를 검색할 수 있다.
이 출원의 이 실시예에서, 전자 디바이스는 인식될 타겟 이미지에 따라 해석 데이터를 생성하고, 생성된 이미지 해석 데이터에 매칭되는 이미지 해석 데이터에 대해 로컬 데이터베이스를 검색한다.
타겟 이미지의 이미지 해석 데이터를 생성하는 방식은 단계 202를 참조한다.
단계 206: 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하고, 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대응하는 저장된 타겟 대상을 획득하고, 전자 디바이스의 디스플레이 스크린 상에 타겟 대상을 전시하고, 타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델이다.
구체적으로, 이 단계에서, 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하는 것은 도 2b에 도시된 몇몇 서브단계를 수행하는 것에 의해 구현될 수 있다. 도 2b는 이 출원의 실시예에 따라 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하는 방법의 흐름도이다.
단계 206a: 이미지 해석 데이터와 각각의 미리 저장된 이미지 해석 데이터 사이의 유사성을 계산한다.
단계 206b: 가장 높은 유사성을 갖는 미리 저장된 이미지 해석 데이터를 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터로서 결정한다.
이 출원의 이 실시예에서, 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하는 정확도를 향상시키기 위해, 미리 설정된 임계값보다 큰 유사성을 갖는 미리 저장된 이미지 해석 데이터가 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터로서 결정된다.
또한, 서버가 생성된 이미지 해석 데이터에 매칭되는 이미지 해석 데이터를 검색할 때, 서버는 미리 저장된 이미지 해석 데이터와 타겟 대상 사이의 대응에 따라, 서버에 저장되고 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대응하는 타겟 대상을 결정하고, 전자 디바이스로 타겟 대상을 전송한다. 전자 디바이스는 인식될 대상을 수신하고, 전자 디바이스의 디스플레이 스크린 상에 타겟 대상을 전시한다.
이 출원의 이 실시예에서, 전자 디바이스가 생성된 이미지 해석 데이터에 매칭되는 이미지 해석 데이터에 대해 로컬 데이터베이스를 검색할 때, 전자 디바이스는 미리 저장된 이미지 해석 데이터와 타겟 대상 사이의 대응에 따라, 미리 저장되고 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대응하는 타겟 대상을 결정하고, 타겟 대상을 전자 디바이스의 디스플레이 스크린 상에 전시한다.
예를 들어, 사용자는 전자 디바이스 상에 가상 3차원 소파 모델을 제시할 필요가 있다. 가상 3차원 소파 모델에 대응하는 미리 저장된 이미지를 결정할 때, 시스템 개발 요원은 3차원 소파 엔티티의 메인 뷰를 사용하고, 미리 저장된 이미지와 가상 3차원 소파 모델 사이의 대응을 저장하고, 엔티티 카드 상에 미리 저장된 이미지를 인쇄한다. 전자 디바이스는 또한 가상 3차원 소파 모델과 3차원 소파 엔티티의 메인 뷰의 이미지 해석 데이터 사이의 대응을 저장한다.
전자 디바이스 상에 소파 모델을 제시하기를 원할 때, 사용자는 엔티티 카드 상에 전자 디바이스의 카메라를 포커싱할 수 있고, 데이터베이스에서 검색 및 매칭한 후에, 가상 3차원 소파 모델이 최종적으로 전자 디바이스 상에 제시된다.
다른 예의 경우, 게임에서 영웅을 선택할 때, 사용자는 전자 디바이스의 카메라를 영웅 카드에 포커싱하여, 영웅 카드 상에서의 인식될 타겟 이미지 및 인식될 이미지의 이미지 해석 데이터를 획득할 수 있다. 서버는 인식될 이미지의 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대해 데이터베이스를 검색하고, 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대응하는 저장된 타겟 대상을 결정하고, 타겟 대상을 전자 디바이스로 전송하며, 즉, 영웅 카드에 대응하는 가상 영웅을 전자 디바이스로 전송하며, 전자 디바이스는 가상 영웅을 제시한다.
결론적으로, 본 실시예에서 제공되는 타겟 대상 전시 방법에서, 엔티티 카드 상에 인쇄된 인식될 타겟 이미지를 획득하는 것에 의해 인식될 타겟 이미지에 대응하는 가상 타겟 대상이 획득되고, 전자 디바이스의 디스플레이 스크린 상에 전시된다. 가상 타겟 대상은 엔티티 카드 상에서의 인식될 타겟 이미지 상에 카메라의 시각을 포커싱하는 것에 의해 자동적으로 획득되고, 사용자에 의해 복잡한 동작들을 수행할 필요 없이 전시될 수 있다. 따라서, 사용자가 애플리케이션 프로그램에서 타겟 대상을 보기 위해 상대적으로 복잡한 동작들을 수행할 필요가 있기 때문에 제시 효율성이 상대적으로 낮다는 관련 기술들에서의 기술적인 문제가 해결된다. 이 출원의 이 실시예에 제공된 타겟 대상 전시 방법에 의해, 동작 복잡도가 낮아짐으로써, 제시 효율성을 향상시킬 수 있다.
도 3a를 참조하면, 도 3a는 이 출원의 다른 실시예에 따른 타겟 대상 전시 방법의 흐름도이다. 이 방법은 카메라 및 디스플레이 스크린을 포함하는 전자 디바이스에 적용된다. 타겟 대상 전시 방법은 다음 단계들을 포함할 수 있다:
단계 301: 카메라를 사용하는 것에 의해 엔티티 카드를 촬영하여, 엔티티 카드 상에 위치되고 카메라의 시각 내에서 촬영되는 인식될 타겟 이미지를 획득한다.
단계 302: 인식될 타겟 이미지의 이미지 해석 데이터를 획득한다.
단계 303: 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하고, 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대응하는 저장된 타겟 대상을 획득한다.
단계 301 내지 단계 303은 도 2a에 도시된 단계 204 내지 단계 206의 설명에 각각 대응할 수 있다. 세부 사항들은 이 실시예에서 다시 설명되지 않는다.
단계 304: 이미지 해석 데이터에 대응하는 애니메이션화된 전시에 따라 전자 디바이스의 디스플레이 스크린 상에 타겟 대상을 전시하고, 타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델이다.
시스템 개발 요원은 타겟 대상의 전시 동안 재생되는 애니메이션화된 전시를 또한 설정할 수 있다. 즉, 시스템 개발 요원은 각각의 이미지 해석 데이터, 이미지 해석 데이터에 대응하는 타겟 대상, 및 이미지 해석 데이터에 대응하는 애니메이션화된 전시를 대응으로서 저장한다.
이미지 해석 데이터와 애니메이션화된 전시 사이에 대응이 있기 때문에, 타겟 대상을 전시할 때, 전자 디바이스는 이미지 해석 데이터에 대응하는 애니메이션화된 전시를 획득하고, 애니메이션화된 전시에 따라 타겟 대상을 전시한다.
결론적으로, 본 실시예에서 제공되는 타겟 대상 전시 방법에서, 엔티티 카드 상에 인쇄된 인식될 타겟 이미지를 획득하는 것에 의해 인식될 타겟 이미지에 대응하는 가상 타겟 대상이 획득되고, 전자 디바이스의 디스플레이 스크린 상에 전시된다. 가상 타겟 대상은 엔티티 카드 상에서의 인식될 타겟 이미지 상에 카메라의 시각을 포커싱하는 것에 의해 자동적으로 획득되고, 사용자에 의해 복잡한 동작들을 수행할 필요 없이 전시될 수 있다. 따라서, 사용자가 애플리케이션 프로그램에서 타겟 대상을 보기 위해 상대적으로 복잡한 동작들을 수행할 필요가 있기 때문에 제시 효율성이 상대적으로 낮다는 관련 기술들에서의 기술적인 문제가 해결된다. 이 출원의 이 실시예에 제공된 타겟 대상 전시 방법에 의해, 동작 복잡도가 낮아짐으로써, 제시 효율성을 향상시킬 수 있다.
애니메이션화된 전시과 미리 저장된 이미지 사이의 상관 관계를 증가시키기 위해, 일반적으로, 애니메이션화된 전시에서의 이미지 프레임이 미리 저장된 이미지로서 사용된다. 구체적으로, 도 3b에 도시된 몇몇 단계를 참조하면, 도 3b는 이 출원의 실시예에 따라 미리 저장된 이미지로서 애니메이션화된 전시의 이미지 프레임을 사용하는 방법의 흐름도이다.
단계 305: 타겟 대상의 애니메이션화된 전시에서 이미지 프레임을 획득한다.
제시 동안, 다수의 애니메이션화된 전시를 사용하는 것에 의해 동일한 타겟 대상이 제시될 수 있다. 예를 들어, 사용자가 전시하기 위해 게임에서의 영웅을 선택할 때, 영웅은 영웅 점핑 애니메이션을 사용하는 것에 의해, 또는 영웅 러닝(running) 애니메이션을 사용하는 것에 의해 제시될 수 있다.
시스템 개발 요원은 영웅 점핑 애니메이션의 이미지 프레임을 미리 저장된 이미지로서 사용할 수 있어서, 사용자가 미리 저장된 이미지에 대응하는 엔티티 카드 상에 전자 디바이스의 카메라를 포커싱한 후, 데이터베이스에서 검색하고 매칭시킨 후, 영웅은 영웅 점핑 애니메이션을 사용하는 것에 의해 최종적으로 전자 디바이스 상에 제시된다. 시스템 개발 요원은 대안적으로 영웅 러닝 애니메이션의 이미지 프레임을 미리 저장된 이미지로서 사용할 수 있다. 본 명세서에서, 타겟 대상에 대응하는 픽셀은 이미지 프레임들에서의 각각의 프레임에 대한 전경으로서 사용된다. 이 출원의 이 실시예에서, 이미지 프레임에서, 전경 영역은 배경 영역보다 크거나; 또는 이미지 프레임에서, 배경 영역에서의 픽셀들의 그레이스케일 값들은 모두 (255, 255)이며, 즉 이미지 프레임에서의 배경 영역은 흰색이다.
단계 306: 이미지 프레임을 처리하여 이미지 해석 데이터를 생성하고, 이미지 해석 데이터는 이미지 프레임의 피처를 반영하기 위해 사용된다.
구체적으로, 전자 디바이스는 미리 저장된 이미지의 이미지 해석 데이터를 생성하기 위해 미리 저장된 이미지를 소프트웨어 개발 키트, 예를 들어 증강 현실 소프트웨어(예를 들어, Vuforia) 개발 키트에 업로드할 수 있다. 이미지 해석 데이터는 미리 저장된 이미지의 피처를 반영하기 위해 사용된다. 2개의 이미지 해석 데이터 사이의 유사성이 더 높을 때, 이는 2개의 이미지 해석 데이터에 대응하는 2개의 이미지 사이의 유사성이 더 높다는 것을 나타낸다. 2개의 이미지 해석 데이터가 완전히 동일할 때, 이는 2개의 이미지 해석 데이터에 대응하는 이미지들이 완전히 동일하다는 것을 나타낸다.
단계 307: 이미지 해석 데이터, 타겟 대상 및 애니메이션화된 전시를 대응으로서 저장한다.
일반적으로, 시스템 개발 요원은 이미지 해석 데이터, 타겟 대상 및 애니메이션화된 전시 사이의 대응을 설정한다. 시스템은 각각의 이미지 해석 데이터, 이미지 해석 데이터에 대응하는 타겟 대상 및 이미지 해석 데이터에 대응하는 애니메이션화된 전시를 데이터베이스에 대응으로서 저장하여, 단계 303 및 단계 304에서, 전자 디바이스는 이미지 해석 데이터 및 이미지 해석 데이터에 대응하는 애니메이션화된 전시에 따라 타겟 대상을 제시할 수 있다.
예를 들어, 개발 요원은 영웅 점핑 애니메이션의 이미지 프레임을 미리 저장된 이미지로서 사용하고, 영웅 카드 상에 이미지 프레임을 인쇄하고, 이미지 프레임의 이미지 해석 데이터, 영웅, 및 영웅 점핑 애니매이션 사이의 대응을 서버에 저장하여서, 사용자가 영웅 카드 상에 전자 디바이스의 카메라를 포커싱할 때, 전자 디바이스는 데이터에서의 검색 및 매칭을 수행하고, 최종적으로 전자 디바이스는 영웅 점핑 애니메이션을 사용하는 것에 의해 디스플레이 스크린 상에 영웅을 제시한다.
도 4를 참조하면, 도 4는 이 출원의 실시예에 따른 타겟 대상 전시 장치의 개략 구조도이다. 타겟 대상 전시 장치는 카메라 및 디스플레이 스크린을 포함하는 전자 디바이스에 적용된다. 타겟 대상 전시 장치는: 제1 획득 모듈(410), 제2 획득 모듈(420), 매칭 모듈(430) 및 제시 모듈(440)을 포함할 수 있다.
제1 획득 모듈(410)은 카메라를 사용하는 것에 의해 엔티티 카드를 촬영하여 엔티티 카드 상에 인쇄되고 카메라의 시각 내에서 촬영되는 인식될 타겟 이미지를 획득하도록 구성된다.
제2 획득 모듈(420)은 제1 획득 모듈(410)에 의해 획득된 인식될 타겟 이미지의 이미지 해석 데이터를 획득하도록 구성되며, 이미지 해석 데이터는 제1 획득 모듈(410)에 의해 획득된 인식될 타겟 이미지의 피처를 반영하기 위해 사용된다.
매칭 모듈(430)은 제2 획득 모듈(420)에 의해 획득된 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하도록 구성된다.
제시 모듈(440)은 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대응하는 저장된 타겟 대상을 획득하고, 타겟 대상을 디스플레이 스크린 상에 전시하도록 구성된다- 타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델임 -.
결론적으로, 이 실시예에서 제공되는 타겟 대상 전시 장치에서, 엔티티 카드 상에 인쇄된 인식될 타겟 이미지를 획득하는 것에 의해, 인식될 타겟 이미지에 대응하는 가상 타겟 대상이 획득되고, 전자 디바이스의 디스플레이 스크린 상에 전시된다. 가상 타겟 대상은 엔티티 카드 상의 인식될 타겟 이미지 상에 카메라의 시각을 포커싱하는 것에 의해서만 자동으로 획득되고, 사용자에 의해 복잡한 동작들을 수행할 필요 없이 제시될 수 있다. 따라서, 사용자가 애플리케이션 프로그램에서 타겟 대상을 보기 위해 상대적으로 복잡한 동작들을 수행할 필요가 있기 때문에 제시 효율성이 상대적으로 낮다는 관련 기술들에서의 기술적인 문제가 해결된다. 이 출원의 이 실시예에 제공되는 타겟 대상 전시 장치에 의해, 동작 복잡도가 낮아짐으로써, 제시 효율성을 향상시킬 수 있다.
도 5를 참조하면, 도 5는 이 출원의 다른 실시예에 따른 타겟 대상 전시 장치의 개략 구조도이다. 타겟 대상 전시 장치는 카메라 및 디스플레이 스크린을 포함하는 전자 디바이스에 적용된다. 타겟 대상 전시 장치는 제1 획득 모듈(501), 제2 획득 모듈(502), 매칭 모듈(503) 및 제시 모듈(504)을 포함할 수 있다.
제1 획득 모듈(501)은 카메라를 사용하는 것에 의해 엔티티 카드를 촬영하여 엔티티 카드 상에 인쇄되고 카메라의 시각 내에서 촬영되는 인식될 타겟 이미지를 획득하도록 구성된다.
제2 획득 모듈(502)은 제1 획득 모듈(501)에 의해 획득된 인식될 타겟 이미지의 이미지 해석 데이터를 획득하도록 구성되며, 이미지 해석 데이터는 제1 획득 모듈(501)에 의해 획득된 인식될 타겟 이미지의 피처를 반영하기 위해 사용된다.
매칭 모듈(503)은 제2 획득 모듈(502)에 의해 획득된 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하도록 구성된다.
제시 모듈(504)은 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터에 대응하는 저장된 타겟 대상을 획득하고, 타겟 대상을 디스플레이 스크린 상에 전시하도록 구성된다- 타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델임 -.
이 출원의 이 실시예에서, 타겟 대상 전시 장치는 제3 획득 모듈(505), 제1 처리 모듈(506), 및 제1 저장 모듈(507)을 추가로 포함할 수 있다.
제3 획득 모듈(505)은 타겟 대상에 대응하는 미리 저장된 이미지를 획득하도록 구성된다.
제1 처리 모듈(506)은 제3 획득 모듈(505)에 의해 획득된 미리 저장된 이미지를 처리하여 이미지 해석 데이터를 생성하도록 구성된다.
제1 저장 모듈(507)은 제1 처리 모듈(506)에 의해 생성된 이미지 해석 데이터 및 타겟 대상을 대응으로서 저장하도록 구성된다.
이 출원의 이 실시예에서, 타겟 대상 전시 장치는 제4 획득 모듈(508), 제2 처리 모듈(509), 및 제2 저장 모듈(510)을 추가로 포함할 수 있다.
제4 획득 모듈(508)은 타겟 대상의 애니메이션화된 전시에서 이미지 프레임을 획득하도록 구성된다.
제2 처리 모듈(509)은 제4 획득 모듈(508)에 의해 획득된 이미지 프레임을 처리하여 이미지 해석 데이터를 생성하도록 구성된다.
제2 저장 모듈(510)은 이미지 해석 데이터, 타겟 대상 및 애니메이션화된 전시를 대응으로서 저장하도록 구성된다.
이 출원의 이 실시예에서, 제시 모듈(504)은 타겟 대상에 대응하는 애니메이션화된 전시에 따라 디스플레이 스크린 상에 타겟 대상을 제시하도록 추가로 구성된다.
이 출원의 이 실시예에서, 매칭 모듈(503)은 계산 유닛(503a) 및 결정 유닛(503b)을 추가로 포함한다.
계산 유닛(503a)은 이미지 해석 데이터와 각각의 미리 저장된 이미지 해석 데이터 사이의 유사성을 계산하도록 구성된다.
결정 유닛(503b)은 계산 유닛(503a)에 의해 계산된 가장 높은 유사성을 갖는 이미지 해석 데이터를 이미지 해석 데이터에 매칭되는 미리 저장된 이미지 해석 데이터로서 결정하도록 구성된다.
결론적으로, 이 실시예에서 제공되는 타겟 대상 전시 장치에서, 엔티티 카드 상에 인쇄된 인식될 타겟 이미지를 획득하는 것에 의해, 인식될 타겟 이미지에 대응하는 가상 타겟 대상이 획득되고, 전자 디바이스의 디스플레이 스크린 상에 제시된다. 가상 타겟 대상은 엔티티 카드 상의 인식될 타겟 이미지 상에 카메라의 시각을 포커싱하는 것에 의해서만 자동으로 획득되고, 사용자에 의해 복잡한 동작들을 수행할 필요 없이 제시될 수 있다. 따라서, 사용자가 애플리케이션 프로그램에서 타겟 대상을 보기 위해 상대적으로 복잡한 동작들을 수행할 필요가 있기 때문에 제시 효율성이 상대적으로 낮다는 관련 기술들에서의 기술적인 문제가 해결된다. 이 출원의 이 실시예에 제공된 타겟 대상 전시 방법에 의해, 동작 복잡도가 낮아짐으로써, 제시 효율성을 향상시킬 수 있다.
전술한 실시예들에서 제공되는 타겟 대상 전시 장치가 타겟 대상을 제시할 때, 기능 모듈들의 분할 예를 통해서만 설명이 이루어진다. 실제 응용에서, 기능들은 상이한 기능 모듈들에 의해 구현될 필요에 따라 할당될 수 있으며, 즉, 전자 디바이스의 내부 구조는 상이한 기능 모듈들로 분할되어, 전술한 기능들의 전부 또는 일부를 구현한다. 또한, 전술한 실시예들에서 제공되는 타겟 대상 전시 장치의 발명의 개념은 타겟 대상 전시 방법 실시예들의 발명의 개념과 동일하다. 특정 구현 프로세스에 대해서는, 세부 사항들에 대해서는 방법 실시예들을 참조하고, 세부 사항들은 본 명세서에서 다시 설명되지 않는다.
도 6을 참조하면, 도 6은 이 출원의 다른 실시예에 따른 타겟 대상 전시 방법을 구현하기 위한 전자 디바이스의 하드웨어의 개략적인 구조도이다.
도 6에 도시된 바와 같이, 전자 디바이스는 프로세서(601), 메모리(602), 시스템 버스(603), 카메라(604), 디스플레이 스크린(605) 및 네트워크 인터페이스(606)를 포함한다. 메모리(602) 및 프로세서(601)를 포함하는 컴포넌트들은 시스템 버스(603)에 접속된다. 프로세서(601)는 컴퓨터 시스템에서 기본적인 산술 및 논리 동작들을 사용하는 것에 의해 컴퓨터 프로그램들 및 명령어들을 수행하는 하드웨어이다. 메모리(602)는 예를 들어, 휘발성 또는 비휘발성 메모리와 같은 컴퓨터 프로그램 또는 데이터를 일시적으로 또는 영구적으로 저장하도록 구성되는 물리적 디바이스이다. 네트워크 인터페이스(606)는 전자 디바이스와 서버 또는 다른 디바이스 사이에서 데이터를 송신하도록 구성된다.
이 출원의 이 실시예에서, 프로세서(601)는 시스템 버스(603)에 의해 카메라(604)와 통신하여, 엔티티 카드를 촬영하도록 카메라(604)에 명령할 수 있다. 프로세서(601)는 또한 시스템 버스(603)에 의해 메모리(602)와 통신하여, 메모리(602)에 저장되는 컴퓨터 판독가능 명령어들을 수행할 수 있다. 컴퓨터 판독가능 명령어들은 제1 획득 명령어, 제2 획득 명령어, 매칭 명령어 및 제시 명령어를 포함한다. 프로세서(601)는 또한 시스템 버스(603)에 의해 디스플레이 스크린(605)과 통신하여, 타겟 대상을 제시하도록 디스플레이 스크린(605)에 명령할 수 있다.
이 출원의 이 실시예에서, 프로세서(601)는 메모리(602)에 저장되는 제1 획득 명령어, 제2 획득 명령어, 매칭 명령어 및 전시 명령어를 판독하여, 도 1에 도시된 타겟 대상 제시 방법의 단계들 및 도 4에 도시된 타겟 대상 전시 장치에서의 모듈들의 기능들을 수행하도록 구성된다.
또한, 컴퓨터 판독가능 명령어들은 프로세서(601)에 의해 수행될 수 있는 제3 획득 명령어, 제1 처리 명령어 및 제1 저장 명령어를 추가로 포함한다. 프로세서(601)는 메모리(602)에 저장되는 전술한 명령어들을 판독하여 도 2a에 도시된 타겟 대상 전시 방법에서 단계들 201 내지 203 및 도 5에 도시된 타겟 대상 전시 장치에서의 제3 획득 모듈(505), 제1 처리 모듈(506) 및 제1 저장 모듈(507)의 기능들을 수행하도록 구성된다.
또한, 컴퓨터 판독가능 명령어들은 프로세서(601)에 의해 수행될 수 있는 제4 획득 명령어, 제2 처리 명령어 및 제2 저장 명령어를 추가로 포함한다. 프로세서(601)는 메모리(602)에 저장되는 전술한 명령어들을 판독하여, 도 3b에 도시된 애니메이션화된 전시의 이미지 프레임을 미리 저장된 이미지로서 사용하는 방법에서의 단계들 및 도 5에 도시된 타겟 대상 전시 장치에서의 제4 획득 모듈(508), 제2 처리 모듈(509), 및 제2 저장 모듈(510)의 기능들을 수행하도록 구성된다.
선행하는 본 출원의 실시예들의 시퀀스 번호들은 단지 설명 목적을 위한 것이며, 실시예들의 선호를 나타내지는 않는다.
이 기술의 통상의 기술자가 전술한 실시예들의 단계들 중 전부 또는 일부가 하드웨어를 사용함으로써 구현될 수 있거나, 또는 관련 하드웨어에 명령하는 프로그램에 의해 구현될 수 있다는 것을 이해할 수 있다. 프로그램은 컴퓨터 판독가능 저장 매체에 저장될 수 있다. 저장 매체는 판독-전용 메모리, 자기 디스크, 광 디스크 등일 수 있다.
전술한 설명들은 본 출원의 단지 바람직한 실시예들일 뿐이며, 본 출원의 범위를 제한하려고 의도되는 것은 아니다. 본 발명의 사상 및 원리로부터 벗어나지 않고 행해진 임의의 수정, 등가의 대체 및 개선은 본 출원의 보호 범위 내에 속할 것이다.

Claims (10)

  1. 카메라 및 디스플레이 스크린을 포함하는 전자 디바이스에 적용되는 타겟 대상 전시 방법으로서,
    제시할 게임 내의 타겟 대상을 선택할 때,
    상기 카메라를 사용하는 것에 의해 엔티티 카드를 촬영하여, 상기 엔티티 카드 상에 인쇄되고 상기 카메라의 시각 내에서 촬영되는 인식될 타겟 이미지를 획득하는 단계;
    상기 인식될 타겟 이미지의 이미지 해석 데이터를 획득하는 단계- 상기 이미지 해석 데이터는 상기 인식될 타겟 이미지의 피처를 반영하기 위해 사용됨 -;
    상기 이미지 해석 데이터가 상기 타겟 대상의 애니메이션화된 전시의 이미지 프레임의 미리 저장된 이미지 해석 데이터와 매칭되는지 여부를 결정함으로써 상기 인식될 타겟 이미지의 상기 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하는 단계; 및
    상기 인식될 타겟 이미지의 상기 이미지 해석 데이터에 매칭되는 상기 이미지 프레임의 상기 미리 저장된 이미지 해석 데이터에 대응하는 저장된 타겟 대상을 상기 게임 내의 상기 타겟 대상으로서 획득하고, 상기 디스플레이 스크린 상에 상기 애니메이션화된 전시에 따라 상기 게임 내의 상기 타겟 대상을 전시하는 단계- 상기 타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델임 -
    를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 방법은,
    상기 타겟 대상에 대응하는 미리 저장된 이미지를 획득하는 단계;
    상기 미리 저장된 이미지를 처리하여 상기 미리 저장된 이미지의 이미지 해석 데이터를 생성하는 단계; 및
    상기 미리 저장된 이미지의 상기 이미지 해석 데이터 및 상기 타겟 대상을 대응으로서 저장하는 단계
    를 추가로 포함하는, 방법.
  3. 제1항에 있어서,
    상기 방법은,
    상기 타겟 대상의 상기 애니메이션화된 전시에서 상기 이미지 프레임을 획득하는 단계;
    상기 이미지 프레임을 처리하여 상기 이미지 프레임의 이미지 해석 데이터를 생성하는 단계; 및
    상기 이미지 프레임의 상기 이미지 해석 데이터, 상기 타겟 대상 및 상기 애니메이션화된 전시를 대응으로서 저장하는 단계
    를 추가로 포함하는, 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 인식될 타겟 이미지의 상기 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하는 상기 단계는:
    상기 인식될 타겟 이미지의 상기 이미지 해석 데이터와 각각의 미리 저장된 이미지 해석 데이터 사이의 유사성을 계산하는 단계; 및
    가장 높은 유사성을 갖는 이미지 해석 데이터를 상기 이미지 해석 데이터에 매칭되는 상기 미리 저장된 이미지 해석 데이터로서 결정하는 단계
    를 포함하는, 방법.
  5. 카메라 및 디스플레이 스크린을 포함하는 전자 디바이스에 적용되는 타겟 대상 전시 장치로서,
    제시할 게임 내의 타겟 대상을 선택할 때, 상기 카메라를 사용하는 것에 의해 엔티티 카드를 촬영하여 상기 엔티티 카드 상에 인쇄되고 상기 카메라의 시각 내에서 촬영되는 인식될 타겟 이미지를 획득하도록 구성된 제1 획득 모듈;
    상기 제1 획득 모듈에 의해 획득된 상기 인식될 타겟 이미지의 이미지 해석 데이터를 획득하도록 구성된 제2 획득 모듈- 상기 이미지 해석 데이터는 상기 제1 획득 모듈에 의해 획득된 상기 인식될 타겟 이미지의 피처를 반영하기 위해 사용됨 -;
    상기 이미지 해석 데이터가 상기 타겟 대상의 애니메이션화된 전시의 이미지 프레임의 미리 저장된 이미지 해석 데이터와 매칭되는지 여부를 결정함으로써 상기 제2 획득 모듈에 의해 획득된 상기 인식될 타겟 이미지의 상기 이미지 해석 데이터를 미리 저장된 이미지 해석 데이터와 매칭하도록 구성된 매칭 모듈; 및
    상기 인식될 타겟 이미지의 상기 이미지 해석 데이터에 매칭되는 상기 이미지 프레임의 상기 미리 저장된 이미지 해석 데이터에 대응하는 저장된 타겟 대상을 상기 게임 내의 상기 타겟 대상으로서 획득하고, 상기 애니메이션화된 전시에 따라 상기 게임 내의 상기 타겟 대상을 상기 디스플레이 스크린 상에 전시하도록 구성된 제시 모듈- 상기 타겟 대상은 가상 2차원 모델 또는 가상 3차원 모델임 -
    을 포함하는, 장치.
  6. 제5항에 있어서,
    상기 장치는:
    상기 타겟 대상에 대응하는 미리 저장된 이미지를 획득하도록 구성된 제3 획득 모듈;
    상기 제3 획득 모듈에 의해 획득된 상기 미리 저장된 이미지를 처리하여 상기 미리 저장된 이미지의 이미지 해석 데이터를 생성하도록 구성된 제1 처리 모듈; 및
    제1 처리 모듈에 의해 생성된 상기 미리 저장된 이미지의 상기 이미지 해석 데이터 및 상기 타겟 대상을 대응으로서 저장하도록 구성된 제1 저장 모듈
    을 추가로 포함하는, 장치.
  7. 제5항에 있어서,
    상기 장치는:
    상기 타겟 대상의 상기 애니메이션화된 전시에서 상기 이미지 프레임을 획득하도록 구성된 제4 획득 모듈;
    상기 제4 획득 모듈에 의해 획득된 상기 이미지 프레임을 처리하여 상기 이미지 프레임의 이미지 해석 데이터를 생성하도록 구성된 제2 처리 모듈; 및
    상기 이미지 프레임의 상기 이미지 해석 데이터, 상기 타겟 대상 및 상기 애니메이션화된 전시를 대응으로서 저장하도록 구성된 제2 저장 모듈
    을 추가로 포함하는, 장치.
  8. 제5항 내지 제7항 중 어느 한 항에 있어서,
    상기 매칭 모듈은:
    상기 인식될 타겟 이미지의 상기 이미지 해석 데이터와 각각의 미리 저장된 이미지 해석 데이터 사이의 유사성을 계산하도록 구성된 계산 유닛; 및
    상기 계산 유닛에 의해 계산된 가장 높은 유사성을 갖는 이미지 해석 데이터를 상기 이미지 해석 데이터에 매칭되는 상기 미리 저장된 이미지 해석 데이터로서 결정하도록 구성된 결정 유닛
    을 포함하는, 장치.
  9. 삭제
  10. 삭제
KR1020187025999A 2016-03-29 2017-03-17 타겟 대상 표시 방법 및 디바이스 KR102118000B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610188631.XA CN105869216A (zh) 2016-03-29 2016-03-29 目标对象展示方法和装置
CN201610188631.X 2016-03-29
PCT/CN2017/077042 WO2017167032A1 (zh) 2016-03-29 2017-03-17 目标对象展示方法和装置

Publications (2)

Publication Number Publication Date
KR20180111970A KR20180111970A (ko) 2018-10-11
KR102118000B1 true KR102118000B1 (ko) 2020-06-02

Family

ID=56626427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187025999A KR102118000B1 (ko) 2016-03-29 2017-03-17 타겟 대상 표시 방법 및 디바이스

Country Status (4)

Country Link
US (1) US10832086B2 (ko)
KR (1) KR102118000B1 (ko)
CN (1) CN105869216A (ko)
WO (1) WO2017167032A1 (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105869216A (zh) * 2016-03-29 2016-08-17 腾讯科技(深圳)有限公司 目标对象展示方法和装置
US11043042B2 (en) * 2016-05-16 2021-06-22 Hewlett-Packard Development Company, L.P. Generating a shape profile for a 3D object
CN106355153B (zh) * 2016-08-31 2019-10-18 上海星视度科技有限公司 一种基于增强现实的虚拟对象显示方法、装置以及系统
CN106454229A (zh) * 2016-09-27 2017-02-22 成都理想境界科技有限公司 一种监测方法、摄像装置和图像处理设备和监测系统
CN106791789A (zh) * 2016-11-28 2017-05-31 深圳哈乐派科技有限公司 一种3d影像展示方法及一种机器人
CN107085592A (zh) * 2017-03-02 2017-08-22 深圳市创想天空科技股份有限公司 基于认知卡片的早教方法及装置
CN109993192A (zh) * 2018-01-03 2019-07-09 北京京东尚科信息技术有限公司 目标对象识别方法及装置、电子设备、存储介质
CN108764135B (zh) * 2018-05-28 2022-02-08 北京微播视界科技有限公司 图像生成方法、装置,及电子设备
CN108871314B (zh) * 2018-07-18 2021-08-17 江苏实景信息科技有限公司 一种定位定姿方法及装置
CN109492607B (zh) * 2018-11-27 2021-07-09 Oppo广东移动通信有限公司 一种信息推送方法、信息推送装置及终端设备
CN112231186B (zh) * 2019-07-15 2024-03-15 深圳市腾讯网域计算机网络有限公司 一种性能数据的处理方法、装置、电子设备及介质
CN110456901A (zh) * 2019-08-16 2019-11-15 上海电气集团股份有限公司 展会中对象展示的控制方法、系统、电子设备和存储介质
CN110827333B (zh) * 2019-10-31 2022-05-03 国网河北省电力有限公司电力科学研究院 一种继电保护的压板拼接识别方法、系统及介质
CN111062435A (zh) * 2019-12-13 2020-04-24 北京奇艺世纪科技有限公司 图像分析方法、装置及电子设备
CN111638793B (zh) * 2020-06-04 2023-09-01 浙江商汤科技开发有限公司 飞行器的展示方法、装置、电子设备及存储介质
CN111694164B (zh) * 2020-06-24 2022-05-20 重庆电子工程职业学院 智能文物展示系统
CN113140028A (zh) * 2021-04-08 2021-07-20 广州三七互娱科技有限公司 虚拟物体渲染方法、装置及电子设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010041A (ko) * 2010-07-23 2012-02-02 세종대학교산학협력단 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템
US20120092329A1 (en) * 2010-10-13 2012-04-19 Qualcomm Incorporated Text-based 3d augmented reality
JP6283168B2 (ja) * 2013-02-27 2018-02-21 任天堂株式会社 情報保持媒体および情報処理システム
CN103294918A (zh) * 2013-05-30 2013-09-11 佛山电视台南海分台 一种在现实图像中进行虚拟游戏的方法和系统
CN103310099A (zh) * 2013-05-30 2013-09-18 佛山电视台南海分台 一种利用图像捕获和识别技术实现增强现实的方法和系统
CN103929597B (zh) * 2014-04-30 2018-02-09 杭州摩图科技有限公司 一种辅助拍摄的方法及其装置
CN104463055A (zh) * 2014-12-29 2015-03-25 重庆甲虫网络科技有限公司 基于无线智能标签的增强现实系统及其控制方法
CN105260409A (zh) * 2015-09-23 2016-01-20 惠州Tcl移动通信有限公司 智能终端的图片搜索方法以及智能终端
CN105405168A (zh) * 2015-11-19 2016-03-16 青岛黑晶信息技术有限公司 一种实现三维增强现实的方法及装置
CN105869216A (zh) * 2016-03-29 2016-08-17 腾讯科技(深圳)有限公司 目标对象展示方法和装置

Also Published As

Publication number Publication date
US10832086B2 (en) 2020-11-10
WO2017167032A1 (zh) 2017-10-05
CN105869216A (zh) 2016-08-17
KR20180111970A (ko) 2018-10-11
US20180365518A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
KR102118000B1 (ko) 타겟 대상 표시 방법 및 디바이스
US11830118B2 (en) Virtual clothing try-on
CN109615703A (zh) 增强现实的图像展示方法、装置及设备
KR102120046B1 (ko) 오브젝트를 표시하는 방법
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
AU2013273829A1 (en) Time constrained augmented reality
CN109478344A (zh) 用于合成图像的方法和设备
CN111639613B (zh) 一种增强现实ar特效生成方法、装置及电子设备
CN107851329A (zh) 基于多个模型显示对象
CN111667590B (zh) 一种互动合影方法、装置、电子设备及存储介质
CN110267079B (zh) 待播放视频中人脸的替换方法和装置
KR102178396B1 (ko) 증강현실 기반의 이미지출력물 제작 방법 및 장치
KR20190101620A (ko) 증강현실 기술을 이용한 무빙 트릭아트 구현 방법
CN111640190A (zh) Ar效果的呈现方法、装置、电子设备及存储介质
JP2020101847A (ja) 画像ファイル生成装置及び画像ファイル生成方法、画像生成装置及び画像生成方法、画像生成システム、並びにプログラム
CN110177216A (zh) 图像处理方法、装置、移动终端以及存储介质
CN114328998A (zh) 一种展示方法、装置、计算机设备及存储介质
CN113822899A (zh) 图像处理方法、装置、计算机设备和存储介质
US20170228915A1 (en) Generation Of A Personalised Animated Film
CN109348132B (zh) 全景拍摄方法及装置
KR102561198B1 (ko) 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법
JP6514386B1 (ja) プログラム、記録媒体及び画像生成方法
KR102581380B1 (ko) 3rd party AR/MR 촬영 장치 및 방법
CN113938597B (zh) 一种脸部识别方法、装置、计算机设备和存储介质
WO2021060016A1 (ja) 画像処理装置、画像処理方法、プログラム、および画像処理システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant