KR102368825B1 - Method and apparatus for outputting video having additional object - Google Patents

Method and apparatus for outputting video having additional object Download PDF

Info

Publication number
KR102368825B1
KR102368825B1 KR1020200069975A KR20200069975A KR102368825B1 KR 102368825 B1 KR102368825 B1 KR 102368825B1 KR 1020200069975 A KR1020200069975 A KR 1020200069975A KR 20200069975 A KR20200069975 A KR 20200069975A KR 102368825 B1 KR102368825 B1 KR 102368825B1
Authority
KR
South Korea
Prior art keywords
image
frame
images
coordinates
point
Prior art date
Application number
KR1020200069975A
Other languages
Korean (ko)
Other versions
KR20210153199A (en
Inventor
이영탁
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020200069975A priority Critical patent/KR102368825B1/en
Publication of KR20210153199A publication Critical patent/KR20210153199A/en
Application granted granted Critical
Publication of KR102368825B1 publication Critical patent/KR102368825B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

추가의 오브젝트를 포함하는 영상을 출력하기 위해, 동일한 장면에 대해 서로 다른 시점들을 갖는 복수의 영상들을 수신하고, 복수의 영상들 중 제1 영상의 제1 프레임 상에 제1 오브젝트를 수신하고, 제1 영상의 제1 프레임에 대응하는 제2 영상의 제1 프레임에 기초하여 제1 오브젝트를 변형함으로써 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하고, 제2 오브젝트를 제2 영상의 제1 프레임 상에 출력한다.In order to output an image including an additional object, receiving a plurality of images having different viewpoints for the same scene, receiving a first object on a first frame of a first image among the plurality of images, A second object for the first frame of the second image is generated by transforming the first object based on the first frame of the second image corresponding to the first frame of the first image, and the second object is used as the second object of the second image. Output on 1 frame.

Description

부가 오브젝트를 포함하는 영상 출력 방법 및 장치{METHOD AND APPARATUS FOR OUTPUTTING VIDEO HAVING ADDITIONAL OBJECT}Image output method and apparatus including an additional object {METHOD AND APPARATUS FOR OUTPUTTING VIDEO HAVING ADDITIONAL OBJECT}

아래의 실시예들은 영상을 출력하기 위한 기술에 관한 것으로, 보다 상세하게는 오브젝트가 부가된 영상을 출력하는 기술에 관한 것이다.The following embodiments relate to a technique for outputting an image, and more particularly, to a technique for outputting an image to which an object is added.

미디어 중계를 위해 스포츠 경기가 복수의 카메라들을 통해 다양한 시점들에서 촬영된다. 다양한 시점들의 영상들을 통해 시청자는 스포츠 경기를 다각도로 시청할 수 있다. 또한, 실제의 스포츠 경기 자체 뿐만 운동 선수를 다양한 시점들에서 촬영함으로써 운동 선수의 자세 등도 자세하게 관찰될 수 있다. 이러한 시스템은 실제의 경기 뿐만 아니라 훈련 과정에서도 이용될 수 있다. 예를 들어, 사용자는 자신의 운동 자세 등을 관찰하기 위해 상기의 시스템을 사용할 수 있다.For media coverage, sports events are filmed from various viewpoints through a plurality of cameras. Through videos from various viewpoints, viewers can watch sports events from various angles. In addition, the posture of the athlete can be observed in detail by photographing the athlete from various viewpoints as well as the actual sports game itself. This system can be used not only in the actual competition but also in the training process. For example, the user may use the above system to observe his/her exercise posture and the like.

일 실시예는 영상을 출력하는 장치 및 방법을 제공할 수 있다.An embodiment may provide an apparatus and method for outputting an image.

일 실시예는 부가의 오브젝트를 포함하는 영상을 출력하는 장치 및 방법을 제공할 수 있다.An embodiment may provide an apparatus and method for outputting an image including an additional object.

일 측면에 따른, 전자 장치에 의해 수행되는, 영상 출력 방법은, 동일한 장면(scene)에 대해 서로 다른 시점(perspective)들을 갖는 복수의 영상들을 수신하는 단계, 상기 복수의 영상들을 동일한 시간 축에 대해 정렬시키는 단계, 상기 복수의 영상들 중 제1 영상의 제1 프레임 상에 제1 오브젝트를 수신하는 단계, 상기 제1 영상의 제1 프레임에 대응하는 제2 영상의 제1 프레임에 기초하여 상기 제1 오브젝트를 변형함으로써 상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계, 및 상기 제2 오브젝트를 상기 제2 영상의 제1 프레임 상에 출력하는 단계를 포함한다.According to an aspect, an image output method, performed by an electronic device, includes receiving a plurality of images having different perspectives with respect to the same scene, and displaying the plurality of images on the same time axis. aligning; receiving a first object on a first frame of a first image among the plurality of images; based on a first frame of a second image corresponding to the first frame of the first image generating a second object for a first frame of the second image by transforming one object; and outputting the second object on a first frame of the second image.

상기 영상 출력 방법은, 상기 복수의 영상들을 생성하는 단계를 더 포함하고, 상기 복수의 영상들을 생성하는 단계는, 상기 복수의 영상들을 생성하는 동안, 오디오를 수신한 단계, 및 수신된 오디오가 미리 설정된 이벤트를 나타내는 경우, 상기 복수의 영상들의 생성을 종료하는 단계를 포함할 수 있다.The image output method may further include generating the plurality of images, wherein the generating of the plurality of images includes: receiving audio while generating the plurality of images; When a set event is indicated, the method may include terminating generation of the plurality of images.

상기 영상 출력 방법은, 상기 복수의 영상들을 생성하는 단계를 더 포함하고, 상기 복수의 영상들을 생성하는 단계는, 생성되는 영상의 프레임들을 실시간으로 분석함으로써 상기 영상 내에서 발생하는 미리 설정된 이벤트를 검출하는 단계, 및 검출된 이벤트가 미리 설정된 타겟 이벤트인 경우, 상기 복수의 영상들의 생성을 종료하는 단계를 포함할 수 있다.The image output method may further include generating the plurality of images, wherein the generating of the plurality of images includes detecting a preset event occurring in the image by analyzing frames of the image in real time. and terminating generation of the plurality of images when the detected event is a preset target event.

상기 복수의 영상들을 동일한 시간 축에 대해 정렬시키는 단계는, 상기 복수의 영상들을 동일한 시간 축에 대해 정렬시킴으로써 상기 제1 영상의 프레임들 및 상기 제2 영상의 프레임들을 서로 매칭시키는 단계를 포함할 수 있다.Aligning the plurality of images with respect to the same time axis may include matching the frames of the first image and the frames of the second image with each other by aligning the plurality of images with respect to the same time axis. there is.

상기 복수의 영상들 중 제1 영상의 제1 프레임 상에 제1 오브젝트를 수신하는 단계는, 사용자로부터 상기 제1 영상의 제1 프레임 상에 상기 제1 오브젝트로서 적어도 하나의 제1 포인트를 수신하는 단계를 포함할 수 있다.The receiving of the first object on the first frame of the first image among the plurality of images includes receiving at least one first point as the first object on the first frame of the first image from the user. may include steps.

상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는, 상기 제1 포인트의 상기 제1 영상의 제1 프레임 상의 좌표에 대응하는 상기 제1 영상의 제1 프레임 상의 제1 타겟 오브젝트를 검출하는 단계, 상기 제1 타겟 오브젝트에 대응하는 제2 타겟 오브젝트를 상기 제2 영상의 제1 프레임 상에서 검출하는 단계, 및 상기 제2 타겟 오브젝트 상에 상기 제1 포인트에 대응하는 제2 포인트를 출력함으로써 상기 제2 오브젝트를 생성하는 단계를 포함할 수 있다.The generating of the second object for the first frame of the second image may include: a first target object on a first frame of the first image corresponding to coordinates of the first point on a first frame of the first image detecting, detecting a second target object corresponding to the first target object on a first frame of the second image, and determining a second point corresponding to the first point on the second target object It may include generating the second object by outputting it.

상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는, 상기 복수의 영상들을 생성한 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터 중 적어도 하나에 기초하여 상기 제1 포인트의 상기 제1영상의 제1 프레임 상의 좌표에 대응하는 상기 제2 영상의 제1 프레임 상의 좌표를 결정하는 단계, 및 상기 제2 영상의 제1 프레임 상의 좌표에 상기 제1 포인트에 대응하는 제2 포인트를 출력함으로써 상기 제2 오브젝트를 생성하는 단계를 포함할 수 있다.The generating of the second object for the first frame of the second image may include: the first point of the first point based on at least one of installation information, an internal parameter, and an external parameter of the cameras that have generated the plurality of images. determining coordinates on a first frame of the second image corresponding to coordinates on the first frame of the image, and outputting a second point corresponding to the first point to the coordinates on the first frame of the second image It may include creating the second object.

상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는, 상기 제1 영상의 제1 프레임에 대응하는 제3 영상의 제1 프레임 상에 추가 오브젝트를 수신하는 단계, 상기 제1 영상의 제1 프레임 상의 상기 제1 오브젝트의 좌표 및 상기 제3 영상의 제1 프레임 상의 상기 추가 오브젝트의 좌표에 기초하여 장면에 대한 3차원 공간 상의 상기 제1 포인트의 글로벌 위치를 결정하는 단계, 및 상기 제1 포인트의 글로벌 위치에 대응하는 상기 제2 영상의 제1 프레임 상의 좌표에 상기 제2 오브젝트를 생성하는 단계를 포함할 수 있다.The generating of the second object for the first frame of the second image may include: receiving an additional object on a first frame of a third image corresponding to the first frame of the first image; determining the global position of the first point in three-dimensional space with respect to a scene based on the coordinates of the first object on the first frame of , and the coordinates of the additional object on the first frame of the third image; and The method may include generating the second object at coordinates on a first frame of the second image corresponding to the global location of the first point.

상기 영상 출력 방법은, 상기 제1 오브젝트의 상기 제1 영상의 제1 프레임 상의 좌표에 기초하여 상기 제1 영상의 제2 프레임 상의 좌표를 결정하는 단계, 및 상기 제1 영상의 제2 프레임 상의 좌표에 상기 제1 오브젝트에 대응하는 제3 오브젝트를 출력하는 단계를 더 포함할 수 있다.The image output method may include: determining coordinates on a second frame of the first image based on coordinates on a first frame of the first image of the first object; and coordinates on a second frame of the first image. The method may further include outputting a third object corresponding to the first object.

상기 제1 오브젝트의 상기 제1 영상의 제1 프레임 상의 좌표에 기초하여 상기 제1 영상의 제2 프레임 상의 좌표를 결정하는 단계는, 상기 제1 오브젝트의 상기 제1 영상의 제1 프레임 상의 좌표에 대응하는 상기 제1 영상의 제1 프레임 상의 제1 타겟 오브젝트를 검출하는 단계, 상기 제1 타겟 오브젝트에 대응하는 제3 타겟 오브젝트를 상기 제1 영상의 제2 프레임 상에서 검출하는 단계, 및 상기 제3 타겟 오브젝트의 좌표를 결정함으로써 상기 제1 영상의 제2 프레임 상의 좌표를 결정하는 단계를 포함할 수 있다.The determining of the coordinates on the second frame of the first image based on the coordinates on the first frame of the first image of the first object may include: detecting a first target object on a first frame of the first image corresponding to the first image, detecting a third target object corresponding to the first target object on a second frame of the first image, and the third The method may include determining coordinates on the second frame of the first image by determining the coordinates of the target object.

상기 영상 출력 방법은, 상기 제1 오브젝트에 대한 정보를 저장하는 단계, 추가 영상이 생성된 경우, 상기 추가 영상의 타겟 프레임 상에 상기 제1 오브젝트를 생성하는 단계, 및 상기 제1 오브젝트를 포함하는 상기 추가 영상의 상기 타겟 프레임을 출력하는 단계를 더 포함할 수 있다.The image output method may include storing information on the first object, generating the first object on a target frame of the additional image when an additional image is generated, and including the first object The method may further include outputting the target frame of the additional image.

다른 일 측면에 따른, 영상을 출력하는 전자 장치는, 영상을 출력하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 동일한 장면(scene)에 대해 서로 다른 시점(perspective)들을 갖는 복수의 영상들을 수신하는 단계, 상기 복수의 영상들을 동일한 시간 축에 대해 정렬시키는 단계, 상기 복수의 영상들 중 제1 영상의 제1 프레임 상에 제1 오브젝트를 수신하는 단계, 상기 제1 영상의 제1 프레임에 대응하는 제2 영상의 제1 프레임에 기초하여 상기 제1 오브젝트를 변형함으로써 상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계, 및 상기 제2 오브젝트를 상기 제2 영상의 제1 프레임 상에 출력하는 단계를 수행한다.According to another aspect, an electronic device for outputting an image includes a memory in which a program for outputting an image is recorded, and a processor for executing the program, wherein the program executes the same scene at different viewpoints ( perspective), aligning the plurality of images on the same time axis, receiving a first object on a first frame of a first image among the plurality of images, the generating a second object for a first frame of the second image by deforming the first object based on a first frame of a second image corresponding to the first frame of the first image, and the second object is outputted on the first frame of the second image.

상기 전자 장치는, 상기 복수의 영상들을 생성하는 복수의 카메라들을 더 포함할 수 있다.The electronic device may further include a plurality of cameras that generate the plurality of images.

상기 전자 장치는, 상기 복수의 영상들을 출력하는 디스플레이를 더 포함하고, 상기 디스플레이는 사용자로부터 상기 제1 오브젝트를 수신하기 위한 터치 스크린을 포함할 수 있다.The electronic device may further include a display for outputting the plurality of images, and the display may include a touch screen for receiving the first object from a user.

상기 전자 장치는, 오디오를 수신하는 마이크를 더 포함하고, 상기 오디오는 상기 복수의 영상들을 생성하기 위해 이용될 수 있다.The electronic device may further include a microphone for receiving audio, and the audio may be used to generate the plurality of images.

상기 복수의 영상들 중 제1 영상의 제1 프레임 상에 제1 오브젝트를 수신하는 단계는, 사용자로부터 상기 제1 영상의 제1 프레임 상에 상기 제1 오브젝트로서 적어도 하나의 제1 포인트를 수신하는 단계를 포함할 수 있다.The receiving of the first object on the first frame of the first image among the plurality of images includes receiving at least one first point as the first object on the first frame of the first image from the user. may include steps.

상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는, 상기 제1 포인트의 상기 제1 영상의 제1 프레임 상의 좌표에 대응하는 상기 제1 영상의 제1 프레임 상의 제1 타겟 오브젝트를 검출하는 단계, 상기 제1 타겟 오브젝트에 대응하는 제2 타겟 오브젝트를 상기 제2 영상의 제1 프레임 상에서 검출하는 단계, 및 상기 제2 타겟 오브젝트 상에 상기 제1 포인트에 대응하는 제2 포인트를 출력함으로써 상기 제2 오브젝트를 생성하는 단계를 포함할 수 있다.The generating of the second object for the first frame of the second image may include: a first target object on a first frame of the first image corresponding to coordinates of the first point on a first frame of the first image detecting, detecting a second target object corresponding to the first target object on a first frame of the second image, and determining a second point corresponding to the first point on the second target object It may include generating the second object by outputting it.

상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는, 상기 복수의 영상들을 생성한 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터 중 적어도 하나에 기초하여 상기 제1 포인트의 상기 제1영상의 제1 프레임 상의 좌표에 대응하는 상기 제2 영상의 제1 프레임 상의 좌표를 결정하는 단계, 및 상기 제2 영상의 제1 프레임 상의 좌표에 상기 제1 포인트에 대응하는 제2 포인트를 출력함으로써 상기 제2 오브젝트를 생성하는 단계를 포함할 수 있다.The generating of the second object for the first frame of the second image may include: the first point of the first point based on at least one of installation information, an internal parameter, and an external parameter of the cameras that have generated the plurality of images. determining coordinates on a first frame of the second image corresponding to coordinates on the first frame of the image, and outputting a second point corresponding to the first point to the coordinates on the first frame of the second image It may include creating the second object.

상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는, 상기 복수의 영상들을 생성한 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터 중 적어도 하나에 기초하여 상기 제1 포인트의 상기 제1영상의 제1 프레임 상의 좌표에 대응하는 상기 제2 영상의 제1 프레임 상의 좌표를 결정하는 단계, 및 상기 제2 영상의 제1 프레임 상의 좌표에 상기 제1 포인트에 대응하는 제2 포인트를 출력함으로써 상기 제2 오브젝트를 생성하는 단계를 포함할 수 있다.The generating of the second object for the first frame of the second image may include: the first point of the first point based on at least one of installation information, an internal parameter, and an external parameter of the cameras that have generated the plurality of images. determining coordinates on a first frame of the second image corresponding to coordinates on the first frame of the image, and outputting a second point corresponding to the first point to the coordinates on the first frame of the second image It may include creating the second object.

상기 프로그램은, 상기 제1 오브젝트의 상기 제1 영상의 제1 프레임 상의 좌표에 기초하여 상기 제1 영상의 제2 프레임 상의 좌표를 결정하는 단계, 및 상기 제1 영상의 제2 프레임 상의 좌표에 상기 제1 오브젝트에 대응하는 제3 오브젝트를 출력하는 단계를 더 수행할 수 있다.The program may include: determining coordinates on a second frame of the first image based on coordinates on a first frame of the first image of the first object, and determining the coordinates on a second frame of the first image. The step of outputting a third object corresponding to the first object may be further performed.

상기 프로그램은, 상기 제1 오브젝트에 대한 정보를 저장하는 단계, 추가 영상이 생성된 경우, 상기 추가 영상의 타겟 프레임 상에 상기 제1 오브젝트를 생성하는 단계, 및 상기 제1 오브젝트를 포함하는 상기 추가 영상의 상기 타겟 프레임을 출력하는 단계를 더 수행할 수 있다.The program may include: storing information on the first object; when an additional image is generated, generating the first object on a target frame of the additional image; and the addition including the first object The step of outputting the target frame of the image may be further performed.

영상을 출력하는 장치 및 방법이 제공될 수 있다.An apparatus and method for outputting an image may be provided.

부가 오브젝트를 포함하는 영상을 출력하는 장치 및 방법이 제공될 수 있다.An apparatus and method for outputting an image including an additional object may be provided.

도 1은 일 예에 따른 영상 출력 시스템을 도시한다.
도 2는 일 실시예에 따른 영상을 출력하는 전자 장치의 구성도이다.
도 3은 일 실시예에 따른 영상을 출력하는 방법의 흐름도이다.
도 4는 일 예에 따른 오디오에 기초하여 복수의 영상들을 생성하는 방법의 흐름도이다.
도 5는 일 예에 따른 영상 내에서 발생하는 이벤트에 기초하여 복수의 영상들을 생성하는 방법의 흐름도이다.
도 6은 일 예에 따른 동일한 시간 축에 대해 정렬된 복수의 영상들을 도시한다.
도 7은 일 예에 따른 제1 영상의 제1 프레임 상에 설정된 제1 오브젝트를 도시한다.
도 8은 일 예에 따른 영상 내의 타겟 오브젝트에 기초하여 제2 영상의 제1 프레임에 제2 오브젝트를 설정하는 방법의 흐름도이다.
도 9는 일 예에 따른 제2 영상의 제1 프레임 상에 설정된 제2 오브젝트를 도시한다.
도 10은 일 예에 따른 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터 중 적어도 하나에 기초하여 제2 영상의 제1 프레임에 제2 오브젝트를 설정하는 방법의 흐름도이다.
도 11은 일 예에 따른 제3 영상의 제1 프레임 상에 수신된 추가 오브젝트에 기초하여 제2 영상의 제1 프레임에 제2 오브젝트를 생성하는 방법의 흐름도이다.
도 12는 일 예에 따른 제1 영상의 제2 프레임에 제3 오브젝트를 출력하는 방법의 흐름도이다.
도 13은 일 예에 따른 영상 내의 타겟 오브젝트에 기초하여 제1 영상의 제2 프레임 상의 좌표를 결정하는 방법의 흐름도이다.
도 14는 일 예에 따른 추가 영상에 제1 오브젝트를 출력하는 방법의 흐름도이다.
1 illustrates an image output system according to an example.
2 is a block diagram of an electronic device that outputs an image according to an exemplary embodiment.
3 is a flowchart of a method of outputting an image according to an exemplary embodiment.
4 is a flowchart of a method of generating a plurality of images based on audio according to an example.
5 is a flowchart of a method of generating a plurality of images based on an event occurring within an image according to an example.
6 illustrates a plurality of images aligned on the same time axis according to an example.
7 illustrates a first object set on a first frame of a first image according to an example.
8 is a flowchart of a method of setting a second object in a first frame of a second image based on a target object in the image, according to an example.
9 illustrates a second object set on a first frame of a second image according to an example.
10 is a flowchart of a method of setting a second object in a first frame of a second image based on at least one of installation information of cameras, an internal parameter, and an external parameter, according to an example.
11 is a flowchart of a method of generating a second object in a first frame of a second image based on an additional object received on the first frame of a third image, according to an example.
12 is a flowchart of a method of outputting a third object to a second frame of a first image according to an example.
13 is a flowchart of a method of determining coordinates on a second frame of a first image based on a target object in the image, according to an example.
14 is a flowchart of a method of outputting a first object to an additional image according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. In addition, in describing the components of the embodiment, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is "connected", "coupled" or "connected" to another component, the component may be directly connected or connected to the other component, but another component is between each component. It will be understood that may also be "connected", "coupled" or "connected".

어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.Components included in one embodiment and components having a common function will be described using the same names in other embodiments. Unless otherwise stated, descriptions described in one embodiment may be applied to other embodiments as well, and detailed descriptions within the overlapping range will be omitted.

도 1은 일 예에 따른 영상 출력 시스템을 도시한다.1 illustrates an image output system according to an example.

일 측면에 따른, 영상 출력 시스템은 복수의 카메라들(110, 120 및 130)을 포함할 수 있다. 복수의 카메라들(110, 120 및 130)은 동일한 장면(scene)에 대해 서로 다른 시점(perspective)들을 갖는 복수의 영상들을 각각 생성할 수 있다. 예를 들어, 복수의 카메라들(110, 120 및 130)은 사용자(100)가 스윙하는 장면을 서로 다른 시점들에서 촬영함으로써 복수의 영상들을 생성할 수 있다.According to an aspect, the image output system may include a plurality of cameras 110 , 120 , and 130 . The plurality of cameras 110 , 120 , and 130 may respectively generate a plurality of images having different perspectives with respect to the same scene. For example, the plurality of cameras 110 , 120 , and 130 may generate a plurality of images by photographing a scene in which the user 100 swings from different viewpoints.

추가적으로, 영상 출력 시스템은 촬영된 복수의 영상들을 후 처리하는 전자 장치 및 영상들을 출력하는 디스플레이를 더 포함할 수 있다. 후 처리는 아래에서 설명될 오브젝트의 부가일 수 있다.Additionally, the image output system may further include an electronic device for post-processing the plurality of photographed images and a display for outputting the images. Post-processing may be the addition of an object, which will be described below.

사용자 또는 다른 사용자는 복수의 영상들을 통해 해당 동작에 대한 리뷰를 수행할 수 있다. 다른 사용자는 사용자의 해당 동작(예를 들어, 골프 스윙 자세)을 지도할 수 있고, 사용자의 이해를 돕기 위해 촬영된 영상 상에 오브젝트를 부가할 수 있다. 예를 들어, 디스플레이가 터치 스크린을 포함하는 경우, 다른 사용자는 올바른 스윙 자세를 위한 그림 또는 메모 등을 부가 오브젝트로서 특정 영상의 특정 프레임 상에 표시할 수 있다.A user or another user may review a corresponding operation through a plurality of images. Another user may guide the user's corresponding motion (eg, golf swing posture), and may add an object to the captured image to help the user understand. For example, when the display includes a touch screen, another user may display a picture or a memo for correct swing posture as an additional object on a specific frame of a specific image.

특정 영상의 특정 프레임 상에 표시된 부가 오브젝트는 다양한 후 처리를 통해 다른 프레임 상에서도 출력될 수 있다. 예를 들어, 특정 영상과 상이한 시점(perspective)을 갖는 다른 영상의 프레임 상에서도 부가 오브젝트 또는 부가 오브젝트와 대응하는 오브젝트가 출력될 수 있다. 다른 예로, 특정 영상의 다른 프레임들 상에서도 부가 오브젝트 또는 부가 오브젝트와 대응하는 오브젝트가 출력될 수 있다.An additional object displayed on a specific frame of a specific image may be output on other frames through various post-processing. For example, an additional object or an object corresponding to the additional object may be output on a frame of another image having a perspective different from that of the specific image. As another example, an additional object or an object corresponding to the additional object may be output on other frames of a specific image.

사용자 또는 다른 사용자로부터 수신된 부가 오브젝트에 대응하는 오브젝트들이 복수의 영상들을 통해 출력됨으로써, 사용자는 골프 스윙에 대한 올바른 자세에 대해 다양한 각도에서 인지할 수 있다.Objects corresponding to the additional object received from the user or other users are output through a plurality of images, so that the user can recognize the correct posture for the golf swing from various angles.

상기에서는 골프 스윙 지도를 위해 영상 출력 시스템이 이용되는 일 예가 설명되었으나, 영상 출력 시스템의 실시예는 기재된 예로 한정되지 않고, 영상을 리뷰하는 다양한 실시예에서 이용될 수 있다.Although an example in which an image output system is used for a golf swing map has been described above, the embodiment of the image output system is not limited to the described example, and may be used in various embodiments for reviewing images.

아래에서 도 2 내지 14를 참조하여 오브젝트를 포함하는 영상을 출력하는 방법이 상세하게 설명된다.A method of outputting an image including an object will be described in detail below with reference to FIGS. 2 to 14 .

도 2는 일 실시예에 따른 영상을 출력하는 전자 장치의 구성도이다.2 is a block diagram of an electronic device that outputs an image according to an exemplary embodiment.

전자 장치(200)는 통신부(210), 프로세서(220), 및 메모리(230)를 포함한다. 실시예에 따라, 전자 장치(200)는 카메라(240) 및 디스플레이(250)를 더 포함할 수 있다. 즉, 전자 장치(200)는 도 1을 참조하여 전술된 영상 출력 시스템에 대응할 수 있다.The electronic device 200 includes a communication unit 210 , a processor 220 , and a memory 230 . According to an embodiment, the electronic device 200 may further include a camera 240 and a display 250 . That is, the electronic device 200 may correspond to the image output system described above with reference to FIG. 1 .

통신부(210)는 프로세서(220) 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.The communication unit 210 is connected to the processor 220 and the memory 230 to transmit and receive data. The communication unit 210 may be connected to another external device to transmit/receive data. Hereinafter, the expression "transmitting and receiving "A" may indicate transmitting and receiving "information or data representing A".

통신부(210)는 전자 장치(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 전자 장치(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.The communication unit 210 may be implemented as circuitry in the electronic device 200 . For example, the communication unit 210 may include an internal bus and an external bus. As another example, the communication unit 210 may be an element that connects the electronic device 200 and an external device. The communication unit 210 may be an interface. The communication unit 210 may receive data from an external device and transmit the data to the processor 220 and the memory 230 .

프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 220 processes data received by the communication unit 210 and data stored in the memory 230 . A “processor” may be a data processing device implemented in hardware having circuitry having a physical structure for performing desired operations. For example, desired operations may include code or instructions included in a program. For example, a data processing device implemented as hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).

프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.Processor 220 executes computer readable code (eg, software) stored in memory (eg, memory 230 ) and instructions issued by processor 220 .

메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 영상을 출력할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The memory 230 stores data received by the communication unit 210 and data processed by the processor 220 . For example, the memory 230 may store a program (or an application, software). The stored program may be a set of syntaxes coded to output an image and executable by the processor 220 .

일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to one aspect, memory 230 may include one or more of volatile memory, non-volatile memory and random access memory (RAM), flash memory, hard disk drive, and optical disk drive.

메모리(230)는 전자 장치(200)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(200)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.The memory 230 stores an instruction set (eg, software) for operating the electronic device 200 . The instruction set for operating the electronic device 200 is executed by the processor 220 .

카메라(240)는 카메라 렌즈의 시야각에 대응하는 장면을 촬영함으로써 영상을 생성한다. 예를 들어, 생성된 영상은 디지털 영상일 수 있다. 카메라(240)는 동일한 장면을 서로 다른 시점들에서 촬영함으로써 복수의 영상들을 생성하는 복수의 카메라들을 포함할 수 있다.The camera 240 generates an image by photographing a scene corresponding to the viewing angle of the camera lens. For example, the generated image may be a digital image. The camera 240 may include a plurality of cameras that generate a plurality of images by photographing the same scene at different viewpoints.

디스플레이(250)는 생성된 복수의 영상들 및 후 처리된 복수의 영상들을 출력할 수 있다. 실시예에 따라, 디스플레이(250)는 터치 스크린과 같은 사용자의 입력을 수신할 수 있는 인터페이스를 더 포함할 수 있다.The display 250 may output a plurality of generated images and a plurality of post-processed images. According to an embodiment, the display 250 may further include an interface capable of receiving a user's input, such as a touch screen.

통신부(210), 프로세서(220), 메모리(230), 카메라(240) 및 디스플레이(250)에 대해, 아래에서 도 3 내지 14를 참조하여 상세히 설명된다.The communication unit 210 , the processor 220 , the memory 230 , the camera 240 , and the display 250 will be described in detail below with reference to FIGS. 3 to 14 .

도 3은 일 실시예에 따른 영상을 출력하는 방법의 흐름도이다.3 is a flowchart of a method of outputting an image according to an exemplary embodiment.

아래의 단계들(310 내지 370)은 도 2를 참조하여 전술된 전자 장치(200)에 의해 수행될 수 있다.The following steps 310 to 370 may be performed by the electronic device 200 described above with reference to FIG. 2 .

단계(310)에서, 전자 장치(200)는 카메라(240)를 이용하여 동일한 장면에 대해 서로 다른 시점들을 갖는 복수의 영상들을 생성한다. 복수의 영상들을 생성하는 방법에 대해 아래에서 도 4 및 5를 참조하여 상세히 설명된다.In operation 310 , the electronic device 200 generates a plurality of images having different viewpoints for the same scene using the camera 240 . A method of generating a plurality of images will be described in detail below with reference to FIGS. 4 and 5 .

단계(320)에서, 전자 장치(200)는 카메라(240)로부터 생성된 복수의 영상들을 수신한다. 수신된 복수의 영상들은 메모리(230)에 저장될 수 있다.In operation 320 , the electronic device 200 receives a plurality of images generated from the camera 240 . The received plurality of images may be stored in the memory 230 .

단계(330)에서, 전자 장치(200)는 복수의 영상들을 동일한 시간 축에 대해 정렬한다. 복수의 영상들이 정렬됨으로써 동일한 시각(time)에 대응하는 각 영상의 프레임들이 결정될 수 있다. 복수의 영상들을 동일한 시간 축에 대해 정렬하는 방법에 대해 아래에서 도 6을 참조하여 상세히 설명된다.In operation 330 , the electronic device 200 aligns the plurality of images on the same time axis. By arranging a plurality of images, frames of each image corresponding to the same time may be determined. A method of aligning a plurality of images with respect to the same time axis will be described in detail below with reference to FIG. 6 .

단계(340)에서, 전자 장치(200)는 복수의 영상들 중 제1 영상의 제1 프레임 상에 제1 오브젝트를 수신한다. 예를 들어, 도 1을 참조하여 전술된 실시예에서 사용자의 골프 스윙을 지도하는 다른 사용자가 터치 스크린을 통해 제1 영상의 제1 프레임 상에 입력한 제1 오브젝트가 수신될 수 있다. 예를 들어, 제1 오브젝트는 제1 프레임의 특정 좌표를 나타내는 포인트일 수 있다. 다른 예로, 제1 오브젝트는 제1 프레임 상에 그려진 도형일 수 있다. 또 다른 예로, 제1 오브젝트는 제1 프레임 상에 입력된 텍스트일 수 있다. 또 다른 예로, 제1 오브젝트는 전자 장치(200)에 미리 저장된 오브젝트들 중 사용자가 선택한 어느 하나일 수 있다. In operation 340 , the electronic device 200 receives a first object on a first frame of a first image among a plurality of images. For example, in the embodiment described above with reference to FIG. 1 , a first object input by another user who guides the user's golf swing on the first frame of the first image through the touch screen may be received. For example, the first object may be a point indicating specific coordinates of the first frame. As another example, the first object may be a figure drawn on the first frame. As another example, the first object may be text input on the first frame. As another example, the first object may be any one selected by the user from among the objects previously stored in the electronic device 200 .

제1 오브젝트는 촬영된 영상 내에 존재하지 않았던 부가 오브젝트를 의미하며, 전술된 실시예로 한정되지 않는다. 제1 오브젝트에 대해 아래에서 도 7을 참조하여 상세히 설명된다.The first object means an additional object that did not exist in the captured image, and is not limited to the above-described embodiment. The first object will be described in detail below with reference to FIG. 7 .

단계(350)에서, 전자 장치(200)는 제1 오브젝트를 변형함으로써 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성한다. 예를 들어, 제1 영상이 사용자의 측면을 촬영한 영상인 경우, 제2 영상은 사용자의 정면을 촬영한 영상일 수 있다. 제2 영상의 제1 프레임은 제1 영상의 제1 프레임에 대응하는 영상이다. 제2 영상의 제1 프레임은 제1 영상의 제1 프레임은 동일한 촬영 시각(time)을 갖는다.In operation 350, the electronic device 200 generates a second object for the first frame of the second image by transforming the first object. For example, when the first image is an image obtained by photographing the side of the user, the second image may be an image obtained by photographing the front of the user. The first frame of the second image is an image corresponding to the first frame of the first image. The first frame of the second image has the same shooting time as the first frame of the first image.

일 측면에 따르면, 전자 장치(200)는 제1 오브젝트를 제2 영상의 시점에 대응하도록 변형함으로써 제2 오브젝트를 생성할 수 있다. 예를 들어, 제1 오브젝트가 3차원 오브젝트인 경우, 제2 영상의 시점에서 나타나는 3차원 오브젝트의 형상이 제2 오브젝트로 생성될 수 있다.According to an aspect, the electronic device 200 may generate the second object by transforming the first object to correspond to the viewpoint of the second image. For example, when the first object is a 3D object, the shape of the 3D object appearing from the viewpoint of the second image may be generated as the second object.

제2 오브젝트를 생성하는 방법에 대해, 아래에서 도 8 내지 11을 참조하여 상세히 설명된다.A method of generating the second object will be described in detail below with reference to FIGS. 8 to 11 .

단계(360)에서, 전자 장치(200)는 제2 오브젝트를 제2 영상의 제1 프레임 상에 출력한다. 예를 들어, 도 1을 참조한 실시예의 사용자는 제2 영상에 출력된 제2 오브젝트를 통해, 다른 사용자가 직접 입력한 제1 오브젝트의 시점과 상이한 시점에서 올바른 스윙 자세를 인지할 수 있다.In operation 360, the electronic device 200 outputs the second object on the first frame of the second image. For example, the user of the embodiment with reference to FIG. 1 may recognize a correct swing posture from a viewpoint different from the viewpoint of the first object directly input by another user through the second object output to the second image.

단계(370)에서, 전자 장치(200)는 단계들(330 내지 360)을 통해 부가 오브젝트를 포함하도록 후 처리된 복수의 영상들 중 적어도 하나를 출력할 수 있다.In operation 370 , the electronic device 200 may output at least one of a plurality of images that have been post-processed to include the additional object through operations 330 to 360 .

일 측면에 따르면, 후 처리된 복수의 영상들은 식별자와 연관되어 저장될 수 있다. 예를 들어, 식별자는 사용자를 식별할 수 있다.According to an aspect, the plurality of post-processed images may be stored in association with an identifier. For example, an identifier may identify a user.

도 4는 일 예에 따른 오디오에 기초하여 복수의 영상들을 생성하는 방법의 흐름도이다.4 is a flowchart of a method of generating a plurality of images based on audio according to an example.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(310)는 아래의 단계들(410 및 420)을 포함할 수 있다.According to one aspect, the step 310 described above with reference to FIG. 3 may include the following steps 410 and 420 .

단계(410)에서, 전자 장치(200)는 복수의 영상들을 생성하는 동안 오디오를 수신한다. 전자 장치(200)는 오디오를 수신하기 위한 마이크를 더 포함할 수 있다. 예를 들어, 사용자로부터 영상 생성 시작을 위한 입력을 수신한 때부터 복수의 영상들을 위한 프레임들이 촬영될 수 있다. 다른 예로, 타이머를 이용하여 복수의 영상들을 위한 프레임들이 촬영될 수 있다.In operation 410 , the electronic device 200 receives audio while generating a plurality of images. The electronic device 200 may further include a microphone for receiving audio. For example, frames for a plurality of images may be captured when an input for starting image generation is received from a user. As another example, frames for a plurality of images may be photographed using a timer.

단계(420)에서, 전자 장치(200)는 수신된 오디오가 미리 설정된 이벤트를 나타내는 경우 복수의 영상들의 생성을 종료한다. 예를 들어, 미리 설정된 이벤트는 골프공의 타구음일 수 있다. 예를 들어, 미리 설정된 이벤트는 촬영 종료를 나타내는 사용자 음성일 수 있다.In operation 420 , when the received audio indicates a preset event, the electronic device 200 ends generation of the plurality of images. For example, the preset event may be a hitting sound of a golf ball. For example, the preset event may be a user voice indicating the end of shooting.

도 5는 일 예에 따른 영상 내에서 발생하는 이벤트에 기초하여 복수의 영상들을 생성하는 방법의 흐름도이다.5 is a flowchart of a method of generating a plurality of images based on an event occurring within an image according to an example.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(310)는 아래의 단계들(510 및 520)을 포함할 수 있다.According to one aspect, the step 310 described above with reference to FIG. 3 may include the following steps 510 and 520 .

단계(510)에서, 전자 장치(200)는 생성되는 영상의 프레임들을 실시간으로 분석함으로써 영상 내에서 발생하는 미리 설정된 이벤트를 결정한다. 복수의 영상들 중 실시간으로 분석될 영상이 미리 설정될 될 수 있다. 예를 들어, 사용자의 측면을 촬영한 영상이 미리 설정될 수 있다. 복수의 영상들 모두를 실시간적으로 분석하지 않고, 어느 하나의 영상만을 분석함으로써 영상 처리를 위한 시간 및 자원을 감소시킬 수 있다.In operation 510 , the electronic device 200 determines a preset event occurring in the image by analyzing the frames of the generated image in real time. An image to be analyzed in real time among the plurality of images may be preset. For example, an image obtained by photographing the side of the user may be preset. Time and resources for image processing may be reduced by analyzing only one image without analyzing all of the plurality of images in real time.

도 1을 참조한 실시예에서 사용자의 골프 스윙 메커니즘이 실시간으로 분석됨으로써 i) 어드레스 동작, ii) 백 스윙 동작, iii) 임팩트 동작 , iv) 팔로우 스루 동작 및 v) 피니쉬 동작 등이 예시적인 이벤트로서 검출될 수 있다.In the embodiment with reference to FIG. 1 , the user's golf swing mechanism is analyzed in real time to detect i) an address action, ii) a back swing action, iii) an impact action, iv) a follow-through action, and v) a finish action as exemplary events. can be

단계(520)에서, 전자 장치(200)는 검출된 이벤트가 미리 설정된 타겟 이벤트인 경우 복수의 영상들의 생성을 종료할 수 있다. 예를 들어, 피니쉬 동작이 타겟 이벤트로 설정된 경우, 영상 내에서 피니쉬 동작이 검출되면 복수의 영상들의 생성이 종료될 수 있다.In operation 520 , when the detected event is a preset target event, the electronic device 200 may end generation of the plurality of images. For example, when a finish operation is set as a target event, generation of a plurality of images may be terminated when a finish operation is detected within an image.

도 6은 일 예에 따른 동일한 시간 축에 대해 정렬된 복수의 영상들을 도시한다.6 illustrates a plurality of images aligned on the same time axis according to an example.

일 측면에 따르면, 복수의 영상들(610 및 620)은 동일한 시간 축(605)에 대해 정렬된다. 시간 축(605)은 복수의 영상들(610 및 620)의 생성 시작 시각으로부터 생성 종료 시각 까지를 나타낸다.According to one aspect, the plurality of images 610 and 620 are aligned on the same time axis 605 . The time axis 605 indicates from the generation start time of the plurality of images 610 and 620 to the generation end time.

제1 영상(610)은 프레임들(611, 615, 619)을 포함하고, 제2 영상(620)은 프레임들(621, 625, 629)을 포함할 수 있다. 복수의 영상들(610 및 620)이 정렬됨으로써 동일한 시각에 대한 프레임들이 서로 매칭될 수 있다. 예를 들어, 프레임(611) 및 프레임(621)이 매칭되고, 프레임(615) 및 프레임(625)이 매칭되고, 프레임(619) 및 프레임(629)이 매칭될 수 있다.The first image 610 may include frames 611 , 615 , and 619 , and the second image 620 may include frames 621 , 625 , and 629 . By arranging the plurality of images 610 and 620 , frames for the same time may be matched with each other. For example, the frame 611 and the frame 621 may match, the frame 615 and the frame 625 may match, and the frame 619 and the frame 629 may match.

도 7은 일 예에 따른 제1 영상의 제1 프레임 상에 설정된 제1 오브젝트를 도시한다.7 illustrates a first object set on a first frame of a first image according to an example.

도 1을 참조한 실시예와 연관된 실시예로서 사용자의 골프 스윙 자세를 교정하기 위해, 다른 사용자는 제1 영상의 제1 프레임(700) 상에 포인트들(701, 702 703)을 표시함으로써 포인트들(701, 702 703)에 의해 나타나는 제1 오브젝트(710)를 입력할 수 있다. 포인트들(701, 702 703)은 사용자의 왼쪽 손목, 왼쪽 팔꿈치 및 오른쪽 팔꿈치 상에 표시될 수 있다.In order to correct the user's golf swing posture as an embodiment related to the embodiment with reference to FIG. 1 , another user points the points ( 701 , 702 703 ) by displaying the points ( 701 , 702 703 ) on the first frame 700 of the first image. The first object 710 indicated by 701 , 702 703 may be input. Points 701 , 702 703 may be displayed on the user's left wrist, left elbow, and right elbow.

제1 영상은 사용자의 측면을 촬영한 영상일 수 있다. 제1 영상의 제1 프레임(700) 상의 제1 오브젝트(710)는 제1 영상의 시점과 상이한 시점의 영상인 제2 영상에서는 다른 형상으로 나타날 수 있다. 제2 영상에서도 제1 오브젝트(710)에 대응하는 제2 오브젝트가 출력되는 경우, 사용자는 골프 스윙 자세에 대해 명확하게 이해할 수 있다.The first image may be an image obtained by photographing the side of the user. The first object 710 on the first frame 700 of the first image may appear in a different shape in the second image, which is an image having a different view from that of the first image. When the second object corresponding to the first object 710 is also output in the second image, the user can clearly understand the golf swing posture.

도 8은 일 예에 따른 영상 내의 타겟 오브젝트에 기초하여 제2 영상의 제1 프레임에 제2 오브젝트를 설정하는 방법의 흐름도이다.8 is a flowchart of a method of setting a second object in a first frame of a second image based on a target object in the image, according to an example.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(350)는 아래의 단계들(810 내지 830)을 포함할 수 있다.According to one aspect, the step 350 described above with reference to FIG. 3 may include the following steps 810 to 830 .

단계(810)에서, 전자 장치(200)는 제1 포인트의 제1 영상의 제1 프레임 상의 좌표에 대응하는 제1 영상의 제1 프레임 상의 제1 타겟 오브젝트를 검출한다. 예를 들어, 도 7의 예에서 포인트(701)의 제1 프레임(700) 상의 좌표에 대응하는 타겟 오브젝트로서 사용자의 왼쪽 손목이 검출되고, 포인트(702)의 제1 프레임(700) 상의 좌표에 대응하는 타겟 오브젝트로서 사용자의 오른쪽 팔꿈치가 검출되고, 포인트(703)의 제1 프레임(700) 상의 좌표에 대응하는 타겟 오브젝트로서 사용자의 왼쪽 팔꿈치가 검출될 수 있다.In operation 810 , the electronic device 200 detects the first target object on the first frame of the first image corresponding to the coordinates of the first point on the first frame of the first image. For example, in the example of FIG. 7 , the user's left wrist is detected as a target object corresponding to the coordinates on the first frame 700 of the point 701 , and at the coordinates on the first frame 700 of the point 702 The user's right elbow may be detected as the corresponding target object, and the user's left elbow may be detected as the target object corresponding to the coordinates on the first frame 700 of the point 703 .

단계(820)에서, 전자 장치(200)는 제1 타겟 오브젝트에 대응하는 제2 타겟 오브젝트를 제2 영상의 제1 프레임 상에서 검출한다. 제2 영상의 제1 프레임은 제1 영상의 제1 프레임에 대응하는 프레임이다. 예를 들어, 제2 영상의 제1 프레임 상의 사용자의 왼쪽 손목, 오른쪽 팔꿈치 및 왼쪽 팔꿈치가 제2 타겟 오브젝트로서 검출될 수 있다.In operation 820 , the electronic device 200 detects a second target object corresponding to the first target object on the first frame of the second image. The first frame of the second image is a frame corresponding to the first frame of the first image. For example, the user's left wrist, right elbow, and left elbow on the first frame of the second image may be detected as the second target object.

단계(830)에서, 전자 장치(200)는 제2 타겟 오브젝트 상에 제1 포인트에 대응하는 제2 포인트를 출력함으로써 제2 오브젝트를 생성한다. 예를 들어, 제2 영상의 제1 프레임 상의 사용자의 왼쪽 손목, 오른쪽 팔꿈치 및 왼쪽 팔꿈치에 대응하는 제2 포인트들이 출력되고, 제2 포인트들에 기초하여 제2 오브젝트가 생성될 수 있다.In operation 830 , the electronic device 200 generates a second object by outputting a second point corresponding to the first point on the second target object. For example, second points corresponding to the user's left wrist, right elbow, and left elbow on the first frame of the second image may be output, and a second object may be generated based on the second points.

제1 타겟 오브젝트에 대응하는 제2 타겟 오브젝트가 제2 영상의 제1 프레임 상에서 검출되지 않는 경우, 제1 포인트에 대응하는 제2 포인트는 출력되지 않을 수 있다. 예를 들어, 제2 영상의 제1 프레임 상에서 사용자의 오른쪽 팔꿈치가 검출되지 않고, 사용자의 왼쪽 손목 및 왼쪽 팔꿈치만이 제2 타겟 오브젝트들로서 검출된 경우, 사용자의 왼쪽 손목 및 왼쪽 팔꿈치의 제1 포인트들에 대응하는 제2 포인트들이 제2 타겟 오브젝트들 상에 출력될 수 있다.When the second target object corresponding to the first target object is not detected on the first frame of the second image, the second point corresponding to the first point may not be output. For example, when the user's right elbow is not detected on the first frame of the second image and only the user's left wrist and left elbow are detected as second target objects, the first point of the user's left wrist and left elbow Second points corresponding to the values may be output on the second target objects.

도 9는 일 예에 따른 제2 영상의 제1 프레임 상에 설정된 제2 오브젝트를 도시한다.9 illustrates a second object set on a first frame of a second image according to an example.

전술된 도 7의 실시예와 연관하여, 제1 영상이 사용자의 측면을 촬영한 영상이고, 제2 영상이 사용자의 정면을 촬영한 영상인 경우, 제2 영상의 제1 프레임(900) 상에 사용자의 왼쪽 손목, 오른쪽 팔꿈치 및 왼쪽 팔꿈치에 대응하는 제2 포인트들(901, 902, 903)이 출력될 수 있다.In connection with the above-described embodiment of FIG. 7 , when the first image is an image obtained by photographing the side of the user and the second image is an image obtained by photographing the front of the user, on the first frame 900 of the second image Second points 901 , 902 , and 903 corresponding to the user's left wrist, right elbow, and left elbow may be output.

제2 포인트들(901, 902, 903)에 기초하여 제2 오브젝트(910)가 생성될 수 있다. 제2 오브젝트(910)는 제1 오브젝트(710)에 대응한다.A second object 910 may be generated based on the second points 901 , 902 , and 903 . The second object 910 corresponds to the first object 710 .

도 10은 일 예에 따른 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터 중 적어도 하나에 기초하여 제2 영상의 제1 프레임에 제2 오브젝트를 설정하는 방법의 흐름도이다.10 is a flowchart of a method of setting a second object in a first frame of a second image based on at least one of installation information of cameras, an internal parameter, and an external parameter, according to an example.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(350)는 아래의 단계들(1010 및 1020)을 포함할 수 있다.According to one aspect, the step 350 described above with reference to FIG. 3 may include the following steps 1010 and 1020 .

단계(1010)에서, 전자 장치(200)는 복수의 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터 중 적어도 하나에 기초하여 제1 영상의 제1 프레임 상의 제1 포인트의 좌표에 대응하는 제2 영상의 제1 프레임 상의 좌표를 결정한다.In operation 1010 , the electronic device 200 generates a second image corresponding to the coordinates of the first point on the first frame of the first image based on at least one of installation information of the plurality of cameras, an internal parameter, and an external parameter. Determine the coordinates on the first frame.

예를 들어, 전자 장치(200)는 장면에 대한 3차원 공간 상의 제1 포인트의 글로벌 위치를 결정하고, 결정된 글로벌 위치에 대응하는 제2 영상의 제1 프레임 상의 좌표가 결정될 수 있다. 제1 포인트의 글로벌 위치를 결정하고, 글로벌 위치에 대응하는 제2 영상의 제1 프레임 상의 좌표를 결정하기 위해, 카메라에 거리 측정기가 부착될 수 있다. 예를 들어, 카메라들의 초점이 놓여 있는 골프 공에 맞춰져 있는 경우, 거리 측정기는 카메라와 골프 공과의 거리를 측정하고, 카메라들 간의 거리를 측정할 수 있다.For example, the electronic device 200 may determine the global location of the first point in the 3D space of the scene, and the coordinates on the first frame of the second image corresponding to the determined global location may be determined. In order to determine the global position of the first point and to determine the coordinates on the first frame of the second image corresponding to the global position, a range finder may be attached to the camera. For example, when the cameras focus on a golf ball, the range finder may measure a distance between the camera and the golf ball and measure a distance between the cameras.

일 측면에 따르면, 복수의 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터 중 적어도 하나에 기초하여 제1 영상의 제1 프레임 상의 제1 포인트의 좌표 및 제1 포인트의 글로벌 위치 간의 변환 관계가 계산될 수 있다. 추가적으로 복수의 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터 중 적어도 하나에 기초하여 제1 포인트의 글로벌 위치 및 글로벌 위치에 대응하는 제2 영상의 제1 프레임 상의 좌표 간의 변환 관계가 계산될 수 있다.According to an aspect, a transformation relationship between the coordinates of the first point on the first frame of the first image and the global position of the first point may be calculated based on at least one of installation information, internal parameters, and external parameters of the plurality of cameras. there is. Additionally, a transformation relationship between the global position of the first point and the coordinates on the first frame of the second image corresponding to the global position may be calculated based on at least one of installation information, internal parameters, and external parameters of the plurality of cameras.

단계(1020)에서, 전자 장치(200)는 제2 영상의 제1 프레임 상의 좌표에 제1 포인트에 대응하는 제2 포인트를 출력함으로써 제2 오브젝트를 생성한다.In operation 1020 , the electronic device 200 generates a second object by outputting a second point corresponding to the first point to coordinates on the first frame of the second image.

도 11은 일 예에 따른 제3 영상의 제1 프레임 상에 수신된 추가 오브젝트에 기초하여 제2 영상의 제1 프레임에 제2 오브젝트를 생성하는 방법의 흐름도이다.11 is a flowchart of a method of generating a second object in a first frame of a second image based on an additional object received on the first frame of a third image, according to an example.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(350)는 아래의 단계들(1110 내지 1130)을 포함할 수 있다.According to one aspect, the step 350 described above with reference to FIG. 3 may include the following steps 1110 to 1130 .

단계(1110)에서, 전자 장치(200)는 제3 영상의 제1 프레임 상에 추가 오브젝트를 수신한다. 예를 들어, 제1 영상이 사용자의 측면을 촬영한 영상이고, 제2 영상이 사용자의 정면을 촬영한 영상인 경우, 제3 영상은 사용자를 상방에서 촬영한 영상일 수 있다. 예를 들어, 도 1을 참조하여 전술된 실시예에서 사용자의 골프 스윙을 지도하는 다른 사용자가 터치 스크린을 통해 제3 영상의 제1 프레임 상에 입력한 추가 오브젝트가 수신될 수 있다. 추가 오브젝트는 단계(340)에서 제1 영상 상에 수신된 제1 오브젝트에 대응 또는 동일한 오브젝트일 수 있다.In operation 1110 , the electronic device 200 receives an additional object on the first frame of the third image. For example, when the first image is an image obtained by photographing the side of the user and the second image is an image obtained by photographing the front of the user, the third image may be an image obtained by photographing the user from above. For example, in the embodiment described above with reference to FIG. 1 , an additional object input by another user who guides the user's golf swing on the first frame of the third image through the touch screen may be received. The additional object may correspond to or the same object as the first object received on the first image in operation 340 .

단계(1120)에서, 전자 장치(200)는 제1 영상의 제1 프레임 상의 제1 오브젝트의 좌표 및 제3 영상의 제1 프레임 상의 추가 오브젝트의 좌표에 기초하여 장면에 대한 3차원 공간 상의 제1 포인트의 글로벌 위치를 결정한다. 제1 포인트는 제1 오브젝트 상의 어느 포인트일 수 있다. 예를 들어, 복수의 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터, 제1 오브젝트의 좌표 및 제3 오브젝트의 좌표에 기초하여 제1 포인트의 글로벌 위치가 결정될 수 있다.In operation 1120 , the electronic device 200 performs a first in the three-dimensional space with respect to the scene based on the coordinates of the first object on the first frame of the first image and the coordinates of the additional object on the first frame of the third image. Determines the global location of the point. The first point may be any point on the first object. For example, the global position of the first point may be determined based on installation information of the plurality of cameras, internal and external parameters, coordinates of the first object, and coordinates of the third object.

예를 들어, 제1 영상을 촬영한 제1 카메라의 내부 파라미터에 및 제1 오브젝트의 좌표에 기초하여 제1 오브젝트의 좌표를 지나는 제1 직선이 설정될 수 있고, 제3 영상을 촬영한 제3 카메라의 내부 파라미터에 및 추가 오브젝트의 좌표에 기초하여 추가 오브젝트의 좌표를 지나는 제2 직선이 설정될 수 있고, 제1 직선 및 제2 직선 간의 교점이 제1 포인트의 글로벌 위치로 결정될 수 있다.For example, a first straight line passing through the coordinates of the first object may be set based on the coordinates of the first object and an internal parameter of the first camera capturing the first image, and a third line passing the coordinates of the third image may be set. A second straight line passing through the coordinates of the additional object may be set based on the internal parameters of the camera and the coordinates of the additional object, and an intersection between the first straight line and the second straight line may be determined as the global position of the first point.

단계(1130)에서, 전자 장치(200)는 제1 포인트의 글로벌 위치에 대응하는 제2 영상의 제1 프레임 상의 좌표에 제2 오브젝트를 생성한다. 예를 들어, 제2 영상을 촬영한 제2 카메라의 내부 파라미터 및 제1 포인트의 글로벌 위치에 기초하여 제1 포인트의 글로벌 위치를 지나는 제3 직선이 설정될 수 있고, 제3 직선과 제2 영상의 제1 프레임의 영상 평면 간의 교점이 결정될 수 있고, 결정된 교점 상에 제2 오브젝트가 생성될 수 있다.In operation 1130 , the electronic device 200 creates a second object at coordinates on the first frame of the second image corresponding to the global location of the first point. For example, a third straight line passing through the global position of the first point may be set based on the global position of the first point and an internal parameter of the second camera capturing the second image, and the third straight line and the second image An intersection between the image planes of the first frame of may be determined, and a second object may be generated on the determined intersection.

단계들(1110 내지 1130)을 통해, 사용자가 나타내고자 하는 오브젝트가 프레임 내의 특정 오브젝트(예를 들어, 사용자의 팔꿈치, 손목과 같은 타겟 오브젝트) 상에 위치하지 않는 경우에도, 오브젝트의 글로벌 위치가 특정될 수 있다.Through steps 1110 to 1130, even when the object that the user wants to represent is not located on a specific object in the frame (eg, a target object such as the user's elbow or wrist), the global position of the object is specified can be

도 12는 일 예에 따른 제1 영상의 제2 프레임에 제3 오브젝트를 출력하는 방법의 흐름도이다.12 is a flowchart of a method of outputting a third object to a second frame of a first image according to an example.

도 3 내지 도 11을 참조하여 제2 영상의 제1 프레임에 제2 오브젝트를 출력하는 방법이 설명되었으나, 제1 영상의 다른 프레임에도 제1 영상의 제1 프레임의 제1 오브젝트에 대응하는 오브젝트가 출력될 수 있다. 이를 통해, 동일한 시점의 영상에서 오브젝트가 변화하는 양상이 관찰될 수 있다.Although the method of outputting the second object to the first frame of the second image has been described with reference to FIGS. 3 to 11 , the object corresponding to the first object of the first frame of the first image is also displayed in other frames of the first image. can be output. Through this, the changing aspect of the object in the image of the same viewpoint can be observed.

일 측면에 따르면, 아래의 단계들(1210 및 1220)은 도 3을 참조하여 전술된 단계(340)가 수행된 후에 수행될 수 있다.According to one aspect, the following steps 1210 and 1220 may be performed after the step 340 described above with reference to FIG. 3 is performed.

단계(1210)에서, 전자 장치(200)는 제1 영상의 제1 프레임 상의 제1 오브젝트의 좌표에 기초하여 제1 영상의 제2 프레임 상의 좌표를 결정한다. 제1 영상의 제2 프레임 상의 좌표를 결정하는 방법에 대해 아래에서 도 13을 참조하여 상세히 설명된다.In operation 1210 , the electronic device 200 determines the coordinates on the second frame of the first image based on the coordinates of the first object on the first frame of the first image. A method of determining the coordinates on the second frame of the first image will be described in detail below with reference to FIG. 13 .

단계(1220)에서, 전자 장치(200)는 제1 영상의 제2 프레임 상의 좌표에 제1 오브젝트에 대응하는 제3 오브젝트를 출력한다.In operation 1220 , the electronic device 200 outputs a third object corresponding to the first object to coordinates on the second frame of the first image.

도 13은 일 예에 따른 영상 내의 타겟 오브젝트에 기초하여 제1 영상의 제2 프레임 상의 좌표를 결정하는 방법의 흐름도이다.13 is a flowchart of a method of determining coordinates on a second frame of a first image based on a target object in the image, according to an example.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(1210)는 아래의 단계들(1310 내지 1330)을 포함할 수 있다.According to one aspect, the step 1210 described above with reference to FIG. 3 may include the following steps 1310 to 1330 .

단계(1310)에서, 전자 장치(200)는 제1 영상의 제1 프레임 상의 제1 오브젝트의 좌표에 대응하는 제1 영상의 제1 프레임 상의 제1 타겟 오브젝트를 검출한다. 예를 들어, 사용자의 왼쪽 손목, 왼쪽 팔꿈치 및 오른쪽 팔꿈치가 제1 타겟 오브젝트로서 검출될 수 있다.In operation 1310 , the electronic device 200 detects a first target object on the first frame of the first image corresponding to the coordinates of the first object on the first frame of the first image. For example, the user's left wrist, left elbow, and right elbow may be detected as the first target object.

단계(1320)에서, 전자 장치(200)는 제1 타겟 오브젝트에 대응하는 제3 타겟 오브젝트를 제1 영상의 제2 프레임 상에서 검출한다. 예를 들어, 제1 영상의 제2 프레임 상의 사용자의 왼쪽 손목, 왼쪽 팔꿈치 및 오른쪽 팔꿈치가 제3 타겟 오브젝트로서 검출될 수 있다.In operation 1320 , the electronic device 200 detects a third target object corresponding to the first target object on the second frame of the first image. For example, the user's left wrist, left elbow, and right elbow on the second frame of the first image may be detected as the third target object.

단계(1330)에서, 전자 장치(200)는 제3 타겟 오브젝트의 좌표를 결정함으로써 제1 영상의 제2 프레임 상의 좌표를 결정한다.In operation 1330 , the electronic device 200 determines the coordinates on the second frame of the first image by determining the coordinates of the third target object.

도 14는 일 예에 따른 추가 영상에 제1 오브젝트를 출력하는 방법의 흐름도이다.14 is a flowchart of a method of outputting a first object to an additional image according to an example.

도 3 내지 도 13을 참조하여 동일한 시간 축에 대한 정렬된 복수의 영상들에 오브젝트를 출력하는 방법이 설명되었으나, 다른 시간 축에 대해 생성된 영상에 오브젝트가 출력될 수 있다. 이를 통해, 예를 들어, 사용자의 골프 스윙 자세가 어떻게 바뀌었는지가 관찰될 수 있다.Although a method of outputting an object to a plurality of images aligned with respect to the same time axis has been described with reference to FIGS. 3 to 13 , the object may be output to an image generated for a different time axis. Through this, for example, how the user's golf swing posture is changed can be observed.

일 측면에 따르면, 아래의 단계들(1410 내지 1430)은 도 3을 참조하여 전술된 단계(340)가 수행된 후에 수행될 수 있다.According to one aspect, the following steps 1410 to 1430 may be performed after the step 340 described above with reference to FIG. 3 is performed.

단계(1410)에서, 전자 장치(200)는 제1 영상의 제1 프레임에 대해 수신된 제1 오브젝트에 대한 정보를 저장한다. 예를 들어, 제1 오브젝트에 대한 정보는 제1 오브젝트의 글로벌 위치를 포함할 수 있다. 다른 예로, 제1 오브젝트에 대한 정보는 제1 영상의 제1 프레임 상의 제1 오브젝트의 좌표를 포함할 수 있다. 또 다른 예로, 제1 오브젝트에 대한 정보는 제1 오브젝트가 위치하는 제1 영상의 제1 프레임 상의 타겟 오브젝트에 대한 정보를 포함할 수 있다.In operation 1410, the electronic device 200 stores information on the first object received for the first frame of the first image. For example, the information about the first object may include a global location of the first object. As another example, the information on the first object may include coordinates of the first object on the first frame of the first image. As another example, the information on the first object may include information on the target object on the first frame of the first image in which the first object is located.

일 측면에 따르면, 제1 오브젝트에 대한 정보는 제1 오브젝트만을 포함하는 프레임일 수 있다.According to one aspect, the information on the first object may be a frame including only the first object.

단계(1420)에서, 전자 장치(200)는 추가 영상이 생성된 경우 추가 영상의 타겟 프레임 상에 제1 오브젝트를 생성한다. 예를 들어, 추가 영상의 타겟 프레임은 제1 영상을 촬영한 카메라에 의해 생성된 영상이고, 타겟 프레임은 제1 영상의 제1 프레임에 의해 나타나는 사용자의 특정 동작(예를 들어, 골프 스윙의 백 스윙 동작)의 프레임일 수 있다.In operation 1420, when the additional image is generated, the electronic device 200 creates a first object on the target frame of the additional image. For example, the target frame of the additional image is an image generated by a camera that has captured the first image, and the target frame is a specific motion of the user (eg, the back of a golf swing) indicated by the first frame of the first image. swing motion).

일 측면에 따르면, 추가 영상의 타겟 프레임 상에 제1 오브젝트만을 포함하는 영상이 덧입혀서(오버레이) 출력될 수 있다.According to an aspect, an image including only the first object may be overlaid (overlaid) on the target frame of the additional image and output.

다른 예로, 추가 영상의 타겟 프레임은 제1 영상을 촬영한 카메라의 시점과 상이한 시점의 카메라에 의해 생성된 영상이고, 타겟 프레임은 제1 영상의 제1 프레임에 의해 나타나는 사용자의 특정 동작(예를 들어, 골프 스윙의 백 스윙 동작)의 프레임일 수 있다. 제1 영상의 카메라와 추가 영상의 카메라가 상이한 경우, 제1 오브젝트를 변형함으로써 추가 영상의 타겟 프레임을 위한 제2 오브젝트가 생성될 수 있다. 추가 영상의 타겟 프레임에 대한 제2 오브젝트를 생성하는 방법에 대해, 전술된 단계(350)에 대한 설명이 유사하게 적용될 수 있다.As another example, the target frame of the additional image is an image generated by a camera having a different viewpoint from that of the camera that captured the first image, and the target frame is a specific action of the user (eg, For example, it may be a frame of a back swing motion of a golf swing). When the camera of the first image and the camera of the additional image are different, the second object for the target frame of the additional image may be generated by deforming the first object. Regarding the method of generating the second object for the target frame of the additional image, the description of the above-described operation 350 may be similarly applied.

단계(1430)에서, 전자 장치(200)는 제1 오브젝트를 포함하는 추가 영상의 타겟 프레임을 출력한다.In operation 1430, the electronic device 200 outputs a target frame of the additional image including the first object.

예를 들어, 제1 오브젝트를 통해 서로 다른 시점에서 수행되는 사용자의 동일한 동작들이 비교될 수 있다. 예를 들어, 제1 오브젝트는 이전 시점에서 수행된 사용자의 골프 스윙의 특정 자세를 나타낼 수 있고, 제1 오브젝트가 추가 영상에 추가적으로 출력됨으로써 현재의 골프 스윙의 자세와 비교될 수 있다.For example, the same user's actions performed at different time points through the first object may be compared. For example, the first object may represent a specific posture of the user's golf swing performed at a previous point in time, and the first object may be additionally output to the additional image to be compared with the posture of the current golf swing.

다른 예로, 추가 영상의 타겟 프레임에 대해 제2 오브젝트가 생성된 경우, 제2 오브젝트를 포함하는 추가 영상의 타겟 프레임이 출력될 수 있다.As another example, when the second object is generated with respect to the target frame of the additional image, the target frame of the additional image including the second object may be output.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

200: 전자 장치
210: 통신부
220: 프로세서
230: 메모리
240: 카메라
250: 디스플레이
200: electronic device
210: communication department
220: processor
230: memory
240: camera
250: display

Claims (21)

전자 장치에 의해 수행되는, 영상 출력 방법은,
동일한 장면(scene)에 대해 서로 다른 시점(perspective)들을 갖는 복수의 영상들을 수신하는 단계;
상기 복수의 영상들을 동일한 시간 축에 대해 정렬시키는 단계;
상기 복수의 영상들 중 제1 영상의 제1 프레임 상에 제1 오브젝트를 수신하는 단계;
상기 제1 영상의 제1 프레임에 대응하는 제2 영상의 제1 프레임에 기초하여 상기 제1 오브젝트를 변형함으로써 상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계; 및
상기 제2 오브젝트를 상기 제2 영상의 제1 프레임 상에 출력하는 단계
를 포함하고,
상기 복수의 영상들 중 제1 영상의 제1 프레임 상에 제1 오브젝트를 수신하는 단계는,
사용자로부터 상기 제1 영상의 제1 프레임 상에 상기 제1 오브젝트로서 적어도 하나의 제1 포인트를 수신하는 단계
를 포함하는,
영상 출력 방법.
An image output method performed by an electronic device,
receiving a plurality of images having different perspectives with respect to the same scene;
aligning the plurality of images on the same time axis;
receiving a first object on a first frame of a first image among the plurality of images;
generating a second object for a first frame of the second image by transforming the first object based on a first frame of a second image corresponding to the first frame of the first image; and
outputting the second object on a first frame of the second image
including,
Receiving a first object on a first frame of a first image among the plurality of images includes:
Receiving at least one first point as the first object on a first frame of the first image from a user
containing,
How to output video.
제1항에 있어서,
상기 복수의 영상들을 생성하는 단계
를 더 포함하고,
상기 복수의 영상들을 생성하는 단계는,
상기 복수의 영상들을 생성하는 동안, 오디오를 수신한 단계; 및
수신된 오디오가 미리 설정된 이벤트를 나타내는 경우, 상기 복수의 영상들의 생성을 종료하는 단계
를 포함하는,
영상 출력 방법.
According to claim 1,
generating the plurality of images
further comprising,
The step of generating the plurality of images includes:
receiving audio while generating the plurality of images; and
terminating generation of the plurality of images when the received audio indicates a preset event;
containing,
How to output video.
제1항에 있어서,
상기 복수의 영상들을 생성하는 단계
를 더 포함하고,
상기 복수의 영상들을 생성하는 단계는,
생성되는 영상의 프레임들을 실시간으로 분석함으로써 상기 영상 내에서 발생하는 미리 설정된 이벤트를 검출하는 단계; 및
검출된 이벤트가 미리 설정된 타겟 이벤트인 경우, 상기 복수의 영상들의 생성을 종료하는 단계
를 포함하는,
영상 출력 방법.
According to claim 1,
generating the plurality of images
further comprising,
The step of generating the plurality of images includes:
detecting a preset event occurring in the image by analyzing the frames of the generated image in real time; and
terminating generation of the plurality of images when the detected event is a preset target event;
containing,
How to output video.
제1항에 있어서,
상기 복수의 영상들을 동일한 시간 축에 대해 정렬시키는 단계는,
상기 복수의 영상들을 동일한 시간 축에 대해 정렬시킴으로써 상기 제1 영상의 프레임들 및 상기 제2 영상의 프레임들을 서로 매칭시키는 단계
를 포함하는,
영상 출력 방법.
According to claim 1,
Aligning the plurality of images on the same time axis comprises:
matching the frames of the first image and the frames of the second image to each other by aligning the plurality of images on the same time axis
containing,
How to output video.
삭제delete 제1항에 있어서,
상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는,
상기 제1 포인트의 상기 제1 영상의 제1 프레임 상의 좌표에 대응하는 상기 제1 영상의 제1 프레임 상의 제1 타겟 오브젝트를 검출하는 단계;
상기 제1 타겟 오브젝트에 대응하는 제2 타겟 오브젝트를 상기 제2 영상의 제1 프레임 상에서 검출하는 단계; 및
상기 제2 타겟 오브젝트 상에 상기 제1 포인트에 대응하는 제2 포인트를 출력함으로써 상기 제2 오브젝트를 생성하는 단계
를 포함하는,
영상 출력 방법.
According to claim 1,
Creating a second object for the first frame of the second image includes:
detecting a first target object on a first frame of the first image corresponding to the coordinates of the first point on a first frame of the first image;
detecting a second target object corresponding to the first target object on a first frame of the second image; and
generating the second object by outputting a second point corresponding to the first point on the second target object
containing,
How to output video.
제1항에 있어서,
상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는,
상기 복수의 영상들을 생성한 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터 중 적어도 하나에 기초하여 상기 제1 포인트의 상기 제1 영상의 제1 프레임 상의 좌표에 대응하는 상기 제2 영상의 제1 프레임 상의 좌표를 결정하는 단계; 및
상기 제2 영상의 제1 프레임 상의 좌표에 상기 제1 포인트에 대응하는 제2 포인트를 출력함으로써 상기 제2 오브젝트를 생성하는 단계
를 포함하는,
영상 출력 방법.
According to claim 1,
Creating a second object for the first frame of the second image includes:
On the first frame of the second image corresponding to the coordinates on the first frame of the first image of the first point based on at least one of installation information, an internal parameter, and an external parameter of the cameras that have generated the plurality of images determining coordinates; and
generating the second object by outputting a second point corresponding to the first point to coordinates on a first frame of the second image
containing,
How to output video.
제1항에 있어서,
상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는,
상기 제1 영상의 제1 프레임에 대응하는 제3 영상의 제1 프레임 상에 추가 오브젝트를 수신하는 단계;
상기 제1 영상의 제1 프레임 상의 상기 제1 오브젝트의 좌표 및 상기 제3 영상의 제1 프레임 상의 상기 추가 오브젝트의 좌표에 기초하여 장면에 대한 3차원 공간 상의 상기 제1 포인트의 글로벌 위치를 결정하는 단계; 및
상기 제1 포인트의 글로벌 위치에 대응하는 상기 제2 영상의 제1 프레임 상의 좌표에 상기 제2 오브젝트를 생성하는 단계
를 포함하는,
영상 출력 방법.
According to claim 1,
Creating a second object for the first frame of the second image includes:
receiving an additional object on a first frame of a third image corresponding to the first frame of the first image;
determining the global position of the first point in a three-dimensional space with respect to a scene based on the coordinates of the first object on the first frame of the first image and the coordinates of the additional object on the first frame of the third image step; and
generating the second object at coordinates on a first frame of the second image corresponding to the global location of the first point
containing,
How to output video.
제1항에 있어서,
상기 제1 오브젝트의 상기 제1 영상의 제1 프레임 상의 좌표에 기초하여 상기 제1 영상의 제2 프레임 상의 좌표를 결정하는 단계; 및
상기 제1 영상의 제2 프레임 상의 좌표에 상기 제1 오브젝트에 대응하는 제3 오브젝트를 출력하는 단계
를 더 포함하는,
영상 출력 방법.
According to claim 1,
determining coordinates on a second frame of the first image based on coordinates on a first frame of the first image of the first object; and
outputting a third object corresponding to the first object to coordinates on a second frame of the first image;
further comprising,
How to output video.
제9항에 있어서,
상기 제1 오브젝트의 상기 제1 영상의 제1 프레임 상의 좌표에 기초하여 상기 제1 영상의 제2 프레임 상의 좌표를 결정하는 단계는,
상기 제1 오브젝트의 상기 제1 영상의 제1 프레임 상의 좌표에 대응하는 상기 제1 영상의 제1 프레임 상의 제1 타겟 오브젝트를 검출하는 단계;
상기 제1 타겟 오브젝트에 대응하는 제3 타겟 오브젝트를 상기 제1 영상의 제2 프레임 상에서 검출하는 단계; 및
상기 제3 타겟 오브젝트의 좌표를 결정함으로써 상기 제1 영상의 제2 프레임 상의 좌표를 결정하는 단계
를 포함하는,
영상 출력 방법.
10. The method of claim 9,
The determining of the coordinates on the second frame of the first image based on the coordinates on the first frame of the first image of the first object may include:
detecting a first target object on a first frame of the first image corresponding to coordinates on a first frame of the first image of the first object;
detecting a third target object corresponding to the first target object on a second frame of the first image; and
determining the coordinates on the second frame of the first image by determining the coordinates of the third target object;
containing,
How to output video.
제1항에 있어서,
상기 제1 오브젝트에 대한 정보를 저장하는 단계;
추가 영상이 생성된 경우, 상기 추가 영상의 타겟 프레임 상에 상기 제1 오브젝트를 생성하는 단계; 및
상기 제1 오브젝트를 포함하는 상기 추가 영상의 상기 타겟 프레임을 출력하는 단계
를 더 포함하는,
영상 출력 방법.
According to claim 1,
storing information about the first object;
generating the first object on a target frame of the additional image when the additional image is generated; and
outputting the target frame of the additional image including the first object
further comprising,
How to output video.
제1항 내지 제4항, 및 제6항 내지 11항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
Claims 1 to 4, and claims 6 to 11 of any one of the method for performing any one of the computer-readable recording medium containing the program.
영상을 출력하는 전자 장치는,
영상을 출력하는 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
동일한 장면(scene)에 대해 서로 다른 시점(perspective)들을 갖는 복수의 영상들을 수신하는 단계;
상기 복수의 영상들을 동일한 시간 축에 대해 정렬시키는 단계;
상기 복수의 영상들 중 제1 영상의 제1 프레임 상에 제1 오브젝트를 수신하는 단계;
상기 제1 영상의 제1 프레임에 대응하는 제2 영상의 제1 프레임에 기초하여 상기 제1 오브젝트를 변형함으로써 상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계; 및
상기 제2 오브젝트를 상기 제2 영상의 제1 프레임 상에 출력하는 단계
를 수행하고,
상기 복수의 영상들 중 제1 영상의 제1 프레임 상에 제1 오브젝트를 수신하는 단계는,
사용자로부터 상기 제1 영상의 제1 프레임 상에 상기 제1 오브젝트로서 적어도 하나의 제1 포인트를 수신하는 단계
를 포함하는,
전자 장치.
An electronic device that outputs an image,
a memory in which a program for outputting an image is recorded; and
a processor that executes the program
including,
The program is
receiving a plurality of images having different perspectives with respect to the same scene;
aligning the plurality of images on the same time axis;
receiving a first object on a first frame of a first image among the plurality of images;
generating a second object for a first frame of the second image by transforming the first object based on a first frame of a second image corresponding to the first frame of the first image; and
outputting the second object on a first frame of the second image
do,
Receiving a first object on a first frame of a first image among the plurality of images includes:
Receiving at least one first point as the first object on a first frame of the first image from a user
containing,
electronic device.
제13항에 있어서,
상기 복수의 영상들을 생성하는 복수의 카메라들
을 더 포함하는,
전자 장치.
14. The method of claim 13,
A plurality of cameras generating the plurality of images
further comprising,
electronic device.
제13항에 있어서,
상기 복수의 영상들을 출력하는 디스플레이
를 더 포함하고,
상기 디스플레이는 사용자로부터 상기 제1 오브젝트를 수신하기 위한 터치 스크린을 포함하는,
전자 장치.
14. The method of claim 13,
a display for outputting the plurality of images
further comprising,
wherein the display comprises a touch screen for receiving the first object from a user;
electronic device.
제13항에 있어서,
오디오를 수신하는 마이크
를 더 포함하고,
상기 오디오는 상기 복수의 영상들을 생성하기 위해 이용되는,
전자 장치.
14. The method of claim 13,
microphone to receive audio
further comprising,
wherein the audio is used to generate the plurality of images;
electronic device.
삭제delete 제13항에 있어서,
상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는,
상기 제1 포인트의 상기 제1 영상의 제1 프레임 상의 좌표에 대응하는 상기 제1 영상의 제1 프레임 상의 제1 타겟 오브젝트를 검출하는 단계;
상기 제1 타겟 오브젝트에 대응하는 제2 타겟 오브젝트를 상기 제2 영상의 제1 프레임 상에서 검출하는 단계; 및
상기 제2 타겟 오브젝트 상에 상기 제1 포인트에 대응하는 제2 포인트를 출력함으로써 상기 제2 오브젝트를 생성하는 단계
를 포함하는,
전자 장치.
14. The method of claim 13,
Creating a second object for the first frame of the second image includes:
detecting a first target object on a first frame of the first image corresponding to the coordinates of the first point on a first frame of the first image;
detecting a second target object corresponding to the first target object on a first frame of the second image; and
generating the second object by outputting a second point corresponding to the first point on the second target object
containing,
electronic device.
제13항에 있어서,
상기 제2 영상의 제1 프레임을 위한 제2 오브젝트를 생성하는 단계는,
상기 복수의 영상들을 생성한 카메라들의 설치 정보, 내부 파라미터 및 외부 파라미터 중 적어도 하나에 기초하여 상기 제1 포인트의 상기 제1영상의 제1 프레임 상의 좌표에 대응하는 상기 제2 영상의 제1 프레임 상의 좌표를 결정하는 단계; 및
상기 제2 영상의 제1 프레임 상의 좌표에 상기 제1 포인트에 대응하는 제2 포인트를 출력함으로써 상기 제2 오브젝트를 생성하는 단계
를 포함하는,
전자 장치.
14. The method of claim 13,
Creating a second object for the first frame of the second image includes:
On the first frame of the second image corresponding to the coordinates on the first frame of the first image of the first point based on at least one of installation information, an internal parameter, and an external parameter of the cameras that have generated the plurality of images determining coordinates; and
generating the second object by outputting a second point corresponding to the first point to coordinates on a first frame of the second image
containing,
electronic device.
제13항에 있어서,
상기 프로그램은,
상기 제1 오브젝트의 상기 제1 영상의 제1 프레임 상의 좌표에 기초하여 상기 제1 영상의 제2 프레임 상의 좌표를 결정하는 단계; 및
상기 제1 영상의 제2 프레임 상의 좌표에 상기 제1 오브젝트에 대응하는 제3 오브젝트를 출력하는 단계
를 더 수행하는,
전자 장치.
14. The method of claim 13,
The program is
determining coordinates on a second frame of the first image based on coordinates on a first frame of the first image of the first object; and
outputting a third object corresponding to the first object to coordinates on a second frame of the first image;
to do more,
electronic device.
제13항에 있어서,
상기 프로그램은,
상기 제1 오브젝트에 대한 정보를 저장하는 단계;
추가 영상이 생성된 경우, 상기 추가 영상의 타겟 프레임 상에 상기 제1 오브젝트를 생성하는 단계; 및
상기 제1 오브젝트를 포함하는 상기 추가 영상의 상기 타겟 프레임을 출력하는 단계
를 더 수행하는,
전자 장치.
14. The method of claim 13,
The program is
storing information about the first object;
generating the first object on a target frame of the additional image when the additional image is generated; and
outputting the target frame of the additional image including the first object
to do more,
electronic device.
KR1020200069975A 2020-06-10 2020-06-10 Method and apparatus for outputting video having additional object KR102368825B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200069975A KR102368825B1 (en) 2020-06-10 2020-06-10 Method and apparatus for outputting video having additional object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200069975A KR102368825B1 (en) 2020-06-10 2020-06-10 Method and apparatus for outputting video having additional object

Publications (2)

Publication Number Publication Date
KR20210153199A KR20210153199A (en) 2021-12-17
KR102368825B1 true KR102368825B1 (en) 2022-02-28

Family

ID=79033775

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200069975A KR102368825B1 (en) 2020-06-10 2020-06-10 Method and apparatus for outputting video having additional object

Country Status (1)

Country Link
KR (1) KR102368825B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080199A (en) * 2013-09-11 2015-04-23 ソニー株式会社 Image processor and method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6415675B1 (en) * 2017-12-04 2018-10-31 キヤノン株式会社 Generating apparatus, generating method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080199A (en) * 2013-09-11 2015-04-23 ソニー株式会社 Image processor and method

Also Published As

Publication number Publication date
KR20210153199A (en) 2021-12-17

Similar Documents

Publication Publication Date Title
JP7013139B2 (en) Image processing device, image generation method and program
US10771760B2 (en) Information processing device, control method of information processing device, and storage medium
US11399170B2 (en) Image processing apparatus, image processing method, and storage medium
CN107911737B (en) Media content display method and device, computing equipment and storage medium
JP6899002B2 (en) Image processing methods, devices, computer-readable storage media and electronic devices
US20110012989A1 (en) Guiding method for photographing panorama image
JP7301507B2 (en) Information processing device, information processing method, and program
KR101804199B1 (en) Apparatus and method of creating 3 dimension panorama image
US10275917B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
KR102232253B1 (en) Posture comparison and correction method using an application that checks two golf images and result data together
CN110062165B (en) Video processing method and device of electronic equipment and electronic equipment
WO2017092432A1 (en) Method, device, and system for virtual reality interaction
US20150326847A1 (en) Method and system for capturing a 3d image using single camera
CN109286760B (en) Entertainment video production method and terminal thereof
KR102368825B1 (en) Method and apparatus for outputting video having additional object
CN117793324A (en) Virtual rebroadcast reconstruction system, real-time generation system and pre-generation system
WO2019205083A1 (en) 3d image capturing method, 3d photographing device, and storage medium
CN111279352B (en) Three-dimensional information acquisition system through pitching exercise and camera parameter calculation method
KR101856632B1 (en) Method and apparatus for displaying caption based on location of speaker and apparatus for performing the same
CN108924405B (en) Photographing focus correction and image processing method and device based on distance
US9774843B2 (en) Method and apparatus for generating composite image in electronic device
CN110784728B (en) Image data processing method and device and computer readable storage medium
CN112860360A (en) Picture shooting method and device, storage medium and electronic equipment
CN112312041A (en) Image correction method and device based on shooting, electronic equipment and storage medium
JP2020107196A (en) Image processing device or image processing server

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant