KR20160114126A - 유니버설 캡처 - Google Patents

유니버설 캡처 Download PDF

Info

Publication number
KR20160114126A
KR20160114126A KR1020167023384A KR20167023384A KR20160114126A KR 20160114126 A KR20160114126 A KR 20160114126A KR 1020167023384 A KR1020167023384 A KR 1020167023384A KR 20167023384 A KR20167023384 A KR 20167023384A KR 20160114126 A KR20160114126 A KR 20160114126A
Authority
KR
South Korea
Prior art keywords
user
image sensor
instance
capture
sensor content
Prior art date
Application number
KR1020167023384A
Other languages
English (en)
Inventor
도널드 에이. 바네트
다니엘 돌
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20160114126A publication Critical patent/KR20160114126A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • H04N5/23229
    • H04N13/026
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N5/23216
    • H04N5/23222
    • H04N5/23245
    • H04N5/23293

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

본 아키텍처는 자동으로 이미지, 비디오 및 3D(3차원) 등의 다수의 미디어로 피사체 및 장면의 이미지의 자동 캡처 또는 세이브를 가능하게 한다. 사용자는 지금은 찍고 나중에 미디어를 결정할 수 있다. 그 후에, 사용자는 리뷰할 포맷을 선택하고 원한다면 편집을 행할 수 있다. 또한, 사용자가 이미징 시스템으로 하여금 (캡쳐 신호를) 활성화시키도록 인터랙션하면, 아키텍처는 사용자가 추가 캡처를 종료하도록 세이브 신호를 보낼 때까지는 피사체 또는 장면의 이미지를 연속으로 캡처한다. 이에, 불량 샷이 찍혔을 경우에, 사용자는, 좋은 샷이 전혀 없게 되는 상태라기보다는 더 좋은 샷에 대해 이미지 세트를 자세히 검토할 수 있다. 아키텍처는 사용자가 캡처 신호를 활성화시키기 전(캡처전 모드), 또 사용자가 세이브 신호를 활성화시킨 후(세이브후 모드) 미리 정해진 시간 동안 이미지의 캡처를 가능하게 한다.

Description

유니버설 캡처{UNIVERSAL CAPTURE}
이미지 캡처 서브시스템은 거의 모든 휴대용 핸드헬드 컴퓨팅 디바이스에 존재하고 이제는 사용자에게 중요한 재미거리로서 간주되고 있다. 그러나, 기존의 구현은 카메라 등의 현재의 이미지 캡처 디바이스와 마찬가지로 심각한 결점을 갖고 있는데, 즉 사용자가 사진을 찍은 다음, 리뷰 시에, 만족스런 샷이 없음을 인식하고, 사진을 찍지만 그 후에야 비디오가 더 좋았을 수도 있음을 너무 늦게 인식하였으며, 캡처된 피사체를 더 좋은 각도를 갖게 조종할 수 있는 기능을 원하였다. 이것은, 소비자가 미디어 경험 증강을 위해 보다 복잡한 옵션을 찾기 때문에, 매우 경쟁적인 분야이다.
이어서, 본 명세서에서 설명하는 일부 신규한 실시형태의 기본적인 이해를 제공하기 위해 간단한 개요를 제시한다. 이 개요는 광범위한 개관이 아니며, 중요한/결정적인 엘리먼트를 확인하거나 그 범위를 한정하는 것을 목적으로 하지 않는다. 이후에 제시하는 보다 상세한 설명에 대한 서론으로서 간단한 형태로 일부 개념을 제시하는 것이 유일한 목적이다.
개시하는 아키텍처는 사용자가 자동으로 피사체 및 장면의 이미지를 이미지, 비디오 및 3D(3차원) 등의 다수의 미디어로 캡처 및 세이브하게 할 수 있다. 사용자에게는 지금 찍고 나중에 미디어를 결정할 수 있는 기능이 제공된다. 각각의 캡처 인스턴스가 자동으로 세이브되어 세가지 유형의 미디어로 포맷팅된다. 그 후에, 사용자는 리뷰할 포맷을 선택하고 원한다면 편집을 행할 수 있다. 또한, 사용자가 이미징 시스템으로 하여금 (캡쳐 신호를) 활성화시키도록 인터랙션하면, 아키텍처는 사용자가 추가 캡처를 종료하도록 세이브 신호를 보낼 때까지는 피사체 또는 장면의 이미지를 계속해서 캡처한다. 이에, 불량 샷이 찍혔을 경우에, 사용자는, 좋은 샷이 전혀 없게 되는 상태라기보다는 더 좋은 샷에 대해 이미지 세트를 자세히 검토할 수 있다.
대안적 실시형태에 있어서, 아키텍처는 사용자가 캡처 신호를 활성화시키기 전(캡처전 기능 또는 모드), 또 사용자가 세이브 신호를 활성화시킨 후(세이브후 기능 또는 모드) 미리 정해진 시간 동안 이미지의 캡처를 가능하게 한다. 이 경우에도, 포맷팅은 자동으로 다수의 상이한 포맷으로 이루어질 수 있다. 상이한 미디어 포맷의 각각에 대해 오디오도 캡처될 수 있다.
아키텍처는 사용자로 하여금 단일 제스처로 캡처링을 시작하게 할 수 있는 사용자 인터페이스를 포함한다. 홀드-캡처(hold-to-capture) 제스처는 피사체/장면을 적어도 세가지 상이한 미디어 포맷으로 캡처한다. 또한 아키텍처는 자동으로 최적의 디폴트 출력을 선택할 수 있다.
사용자가 "셔터를 누르기" 전에 이미지의 캡처를 가능하게 하고 사용자가 샷을 찍은 후에 연속해서 사진을 캡처할 수 있는 기술이 제공된다. 그리고 다수의 캡처된 것들 중에서 더 좋은 샷이 다른 사용자들과 공유될 수 있다. 또 다른 기술은 사용자가 일련의 이미지들(예컨대, 연속 이미지)를 찍게 한 다음 이들 이미지를 인터랙티브 3D 형상(interactive 3D geometry)으로 변환시킬 수 있다. 비디오가 사용자로 하여금 시간적으로 피사체를 편집하게 할 수 있다면, 이 기술은 이미지가 찍힌 순서와 관계없이 사용자가 피사체를 공간적으로 편집하게 할 수 있다.
바꿔 말하면, 캡처 신호에 응답하여 카메라에서 이미지 센서 컨텐츠의 인스턴스가 연속으로 생성된다. 세이브 신호의 수신에 응답하여 이미지 센서 컨텐츠의 인스턴스가 카메라에 저장된다. 이미지 센서 컨텐츠의 인스턴스는 카메라에서 그리고 상이한 미디어 포맷으로 포맷팅된다. 이미지 센서 컨텐츠의 인스턴스는 상이한 포맷으로 볼 수 있다. 카메라로 이미지 센서 컨텐츠를 연속으로 생성하게 할 수 있도록 캡처 신호는 단일 의도의(single intended)(부수적인 요소 없는) 지속된 사용자 제스처(예컨대, 지속된 터치 또는 압력 접촉, 손 제스처 등)로서 검출될 수 있다. 그 방법은 디폴트 출력을 설정하는 데에 사용자 구성 없이 사용자 뷰잉을 위한 디폴트 출력으로서 상이한 포맷 중 하나를 자동으로 선택하는 단계를 더 포함할 수 있다. 부가적으로, 이미지 센서 컨텐츠의 인스턴스의 저장 및 포맷은 캡처 신호를 수신하기 이전에 그리고 세이브 신호 이후에 가능하다.
전술한 관련된 목적을 달성하기 위해, 다음의 설명 및 첨부하는 도면과 함께 소정의 예시적인 양태에 대해 기재한다. 이들 양태는 여기에 개시하는 원리가 실시될 수 있는 다양한 방법을 나타내며, 모든 양태 및 그 균등물은 청구범위의 발명의 대상의 범위 내에 있는 것이 의도된다. 다른 효과 및 신규한 특징은 이하의 상세한 설명으로부터 도면과 함께 고찰될 때에 분명해질 것이다.
도 1은 개시하는 아키텍처에 따른 시스템을 도시하는 도면이다.
도 2는 개시하는 아키텍처의 일 구현예의 흐름도이다.
도 3은 다중 포맷을 이용한 사용자 인터랙션 유니버설 캡처의 흐름도이다.
도 4는 캡처되어 세이브된 컨텐츠를 리뷰할 수 있게 하는 예시적인 사용자 인터페이스를 도시하는 도면이다.
도 5는 개시하는 아키텍처에 따라 카메라에서 이미지 센서 컨텐츠를 처리하는 방법을 나타내는 도면이다.
도 6은 개시하는 아키텍처에 따른 대안적 방법을 도시하는 도면이다.
도 7은 개시하는 아키텍처를 내장할 수 있는 핸드헬드 디바이스를 도시하는 도면이다.
도 8은 개시하는 아키텍처에 따라 유니버설 캡처를 실행하는 컴퓨팅 시스템의 블록도이다.
개시하는 아키텍처는 사용자가 자동으로 피사체 및 장면의 이미지를 이미지, 비디오 및 3D(3차원) 등의 다수의 미디어로 캡처 및 세이브하게 할 수 있다. 사용자에게는 지금 찍고 나중에 미디어를 결정할 수 있는 기능이 제공된다. 각각의 캡처 인스턴스가 자동으로 세이브되어 세가지 유형의 미디어로 포맷팅된다. 그 후에, 사용자는 리뷰할 포맷을 선택하고 원한다면 편집을 행할 수 있다. 또한, 사용자가 이미징 시스템으로 하여금 (캡쳐 신호를) 활성화시키도록 인터랙션하면, 아키텍처는 사용자가 추가 캡처를 종료하도록 세이브 신호를 보낼 때까지는 피사체 또는 장면의 이미지를 연속으로 캡처한다. 이에, 불량 샷이 찍혔을 경우에, 사용자는, 좋은 샷이 전혀 없게 되는 상태라기보다는 더 좋은 샷에 대해 이미지 세트를 자세히 검토할 수 있다.
대안적 실시형태에 있어서, 아키텍처는 사용자가 캡처 신호를 활성화시키기 전(캡처전 기능 또는 모드), 또 사용자가 세이브 신호를 활성화시킨 후(세이브후 기능 또는 모드) 미리 정해진 시간 동안 이미지의 캡처를 가능하게 한다. 이 경우에도, 포맷팅은 자동으로 다수의 상이한 포맷으로 이루어질 수 있다. 상이한 미디어 포맷의 각각에 대해 오디오도 캡처될 수 있다.
아키텍처는 사용자로 하여금 단일 제스처로 캡처링을 시작하게 할 수 있는 사용자 인터페이스를 포함한다. 홀드-캡처(hold-to-capture) 제스처는 피사체/장면을 적어도 세가지의 상이한 미디어 포맷으로 캡처한다. 또한 아키텍처는 자동으로 최적의 디폴트 출력을 선택할 수 있다.
사용자가 "셔터를 누르기" 전에 이미지의 캡처를 가능하게 하고 사용자가 샷을 찍은 후에 연속으로 사진을 캡처할 수 있는 기술이 제공된다. 그리고 다수의 캡처된 것들 중에서 더 좋은 샷이 다른 사용자들과 공유될 수 있다. 또 다른 기술은 사용자가 일련의 이미지들(예컨대, 연속 이미지)를 찍게 한 다음 이들 이미지를 인터랙티브 3D 형상(interactive 3D geometry)으로 변환시킬 수 있다. 비디오가 사용자로 하여금 시간적으로 피사체를 편집하게 할 수 있다면, 이 기술은 이미지가 찍힌 순서와 관계없이 사용자가 피사체를 공간적으로 편집하게 할 수 있다.
사용자는 제스처를 통해 디바이스와 인터랙션할 수 있다. 예를 들어, 제스처는 NUI(natural user interface) 제스처일 수 있다. NUI는 마우스, 키보드, 리모컨(remote control) 등의 입력 디바이스에 따른 인공적인 제약없이 사용자가 "자연스러운" 방법으로 디바이스와 인터랙션할 수 있게 임의의 인터페이로서 정의될 수 있다. NUI 방법의 예는, 스피치 인식, 터치 인식, 안면 인식, 스타일러스 인식, 에어 제스처(air gesture)(예컨대, 손의 포즈 및 움직임 그리고 기타 신체/부속지 모션/포즈), 머리 및 시선 추적, 보이스 및 스피치 발화(utterance), 및 예를 들어 적어도 시각(vision), 스피치, 음성, 포즈, 및 터치 데이터에 관한 머신 학습 등의 촉각적 및 비촉각적 인터페이스를 포함하나 이에 한정되지 않는, 본 명세서에서 넓게 정의되는 제스처를 채택하는 방법을 포함한다.
NUI 기술은 터치 감응 디스플레이, 음성 및 스피치 인식, 의도 및 목표 이해, 깊이 카메라(예컨대, 스테레오스코픽 카메라 시스템, 적외선 카메라 시스템, 컬러 카메라 시스템, 및 이들의 조합)를 이용한 모션 제스처 검출, 가속도계/자이로스코프를 이용한 모션 제스처 검출, 안면 인식, 3D 디스플레이, 머리/눈/시선 추적, 몰입 증강 현실 및 가상 현실 시스템을 포함하나 이들에 한정되지 않으며, 이들 모두는 전자계 감지 전극(예컨대, 놔파계(EEG, electro-encephalograph))와 기타 뉴로-바이오피드백(neuro-biofeedback) 방법을 이용하여 뇌활동을 감지하는 기술과 함께 더욱 우수한 NUI를 제공한다.
이제 도면을 참조하는데, 도면에서는 전반적으로 같은 도면부호가 같은 엘리먼트를 가리키는데 이용된다. 이하의 기재에서는, 설명의 용도로 충분한 이해를 제공하기 위해 다수의 특정 상세를 개시한다. 그러나 신규한 실시형태들은 이들 특정 상세 없이도 실시될 수 있는 것이 명백하다. 다른 경우에 있어서, 그 설명을 용이하게 하기 위해 잘 알려진 구조 및 디바이스를 블록도로 도시한다. 그 의도는 청구하는 발명의 대상의 사상 및 범주 내에 있는 모든 변형, 등가, 및 대체를 포함하려는 것이다.
도 1은 개시하는 아키텍처에 따른 시스템(100)을 도시하는 도면이다. 시스템(100)은 캡처 신호(108)에 응답하여 장면(106)(예컨대, 사람, 사물, 뷰(view) 등)의 이미지 센서 컨텐츠(104)의 인스턴스(예컨대, 이미지, 프레임 등)을 연속으로 생성하도록 구성될 수 있는 디바이스(예컨대, 카메라, 셀폰, 휴대용 컴퓨터, 태블릿 등)의 이미징 컴포넌트(102)를 포함할 수 있다. 컨텐츠는 장면(106)이 캡처된 것이다.
이미징 컴포넌트(102)는 이미지 센서를 작동시켜 장면(106)의 이미지를 캡처하고 센서에 입력된 컨텐츠를 처리하여 이미지 센서 컨텐츠의 인스턴스(104)를 출력시키는, 이미지 센서(예컨대, CCD(charge coupled device), CMOS(complementary metal oxide semiconductor) 등)와 같은 하드웨어와 소프트웨어를 포함할 수 있다.
디바이스의 데이터 컴포넌트(110)는 세이브 신호(114)의 수신에 응답하여 이미지 센서 컨텐츠의 인스턴스(104)를 상이한 미디어 포맷(112)으로 포맷팅하도록 구성될 수 있다. 데이터 컴포넌트(110)는 이미지 센서 컨텐츠의 인스턴스를 상이한 미디어 포맷(112)(예컨대, 이미지용 mp3, 비디오용 mp4 등)으로 변환시키는 소프트웨어를 포함할 수 있다.
세이브 신호(114)는 점선으로 표시하는 같이 상이하게 구현될 수 있다. 세이브 신호(114)는 이미징 컴포넌트(102) 및 데이터 컴포넌트(110)에 입력될 수 있다. 이미징 컴포넌트(102)에 입력되면, 이미징 컴포넌트(102)는 세이브 신호(114)를 데이터 컴포넌트(110)에 전달한 다음, 이미지 센서 컨텐츠의 인스턴스(104)를 상이한 미디어 포맷(112)으로 포맷팅하여 저장(또는 저장하여 포맷팅)하게 한다.
세이브 신호(114)는 캡처 신호(108)의 상태와도 연관될 수 있다. 예를 들어, 기계적으로 구현될 경우, 스위치를 지속적으로 누르는 것(캡처 상태)은 이미지 센서 컨텐츠의 여러 개의 인스턴스(104)에서의 장면(106)의 캡처를 개시한다. 동일한 스위치에 대한 지속 누르기의 해제(세이브 상태)는 세이브 신호(114)인 것으로 검출된다.
캡처 신호(108)와 세이브 신호(114)가 소프트웨어로 구현되고 터치 디스플레이와 공조하여 이용될 경우, 캡처 신호(108)는 디스플레이 상의 지정된 캡처 스팟에 대한 단일 접촉 터치일 수 있고, 세이브 신호(114)는 디스플레이 상의 지정된 세이브 스팟에 대한 단일 접촉 터치일 수 있다.
기계적 스위치 행위(캡처를 위한 누리기 및 세이브를 위한 누리기 해제)는 또한 소프트웨어로 특징화될 수 있다. 예를 들어, 디스플레이의 스팟 상에서의 지속된 터치는 캡처 신호(108)인 것으로 해석될 수 있고, 그 스팟 상에서의 지속된 터치의 해제는 세이브 신호(114)인 것으로 해석될 수 있다. 전술한 바와 같이, 비접촉 제스처(예컨대, NUI)도 원한다면, 디바이스 카메라 및/또는 마이크가 에어 제스처 및/또는 음성 커맨드를 해석하여 여기에 설명한 동일한 기능을 실행하도록 채택될 수 있다.
디바이스의 프레젠테이션 컴포넌트(116)는 상이한 포맷(112)으로 이미지 센서 컨텐츠의 인스턴스(104)의 인터랙티브 뷰잉(interactive viewing)을 가능하게 하도록 구성될 수 있다. 데이터 컴포넌트(110) 및/또는 프레젠테이션 컴포넌트(116)는 프레젠테이션을 위해 비디오 및 3D 출력을 제공하는 하나 이상의 기술을 활용할 수 있다. 예를 들어, 한 기술은 쇼트 동적 미디어(short dynamic media)를 캡처, 작성 및 공유할 수 있는 방법을 제공한다. 다시 말해, 사용자가 "셔터를 누르기"(세이브 신호(114)) 전에 일련의 이미지(a burst of images)가 캡처되고 사용자가 세이브 신호(114)를 개시한 후에 사진을 연속으로 캡처한다. 그런 다음 사용자는 사용자에 의해 선택되고/되거나 디바이스 알고리즘에 의해 결정되는 것인 베스트 샷(예컨대, 오디오를 포함하는, 이미지, 일련의 이미지, 비디오 등)을 세이브 및 공유할 수 있게 된다.
다른 기술은 일련의 (예컨대, 연속) 사진의 캡처를 가능하게 하고 이 일련의 사진을 인터랙티브 3D 형상으로 변환한다. 통상의 비디오가 사용자로 하여금 시간적으로 피사체를 스크럽(scrub)(수정, 클린업)하게 할 수 있다면, 이 추가 기술은 샷(인스턴스 또는 이미지)이 찍힌 순서와 관계없이 사용자가 피사체를 공간적으로 스크럽할 수 있게 한다.
기타 가능한 기능 중에서, 데이터 컴포넌트(110)는 이미지 센서 컨텐츠의 인스턴스(114)를 이미지, 비디오, 및/또는 3차원 미디어로서 포맷팅한다. 프레젠테이션 컴포넌트(116)는 컨텐츠의 인스턴스(112)가 다양한 미디어 포맷에 따라 스크롤 및 재생되게 할 수 있다. 예를 들어, 일련의 이미지처럼, 사용자에게는 이미지를 개별적으로 자세히 검토하고 나서 원한다면, 소정의 인스턴스를 편집 또는 제거, 색상을 변경, "빨간 눈(red eye)"을 제거 등의 통상의 미디어 편집 작업을 도입할 수 있는 기능이 제공된다. 다시 말해, 사용자에게는 이미지 센서 컨텐츠의 여러 인스턴스(112)를 볼 수 있도록 시간적으로 전방으로 그리고 후방으로 이동할 수 있는 기능이 제공된다.
데이터 컴포넌트(110)는 이미지의 연속 인스턴스를 인터랙티브 3차원 형상으로 변환하는 알고리즘을 포함한다. 이것은 마치 장면을 지나 왼쪽 또는 오른쪽으로 걸어가는 것처럼 사용자가 인스턴스를 보게 하면서 포워드 뷰(forward view)도 보여 주도록 연속 인스턴스에 대한 시야를 제공하는 것을 포함하지만, 이에 한정되지는 않는다.
데이터 컴포넌트(110)는 캡처 신호(108)의 활성화 전에 그리고 세이브 신호(114)의 활성화 후에 이미지 센서 컨텐츠의 인스턴스의 기록(recording)을 가능하게 하는 알고리즘을 포함한다. 이 경우에, 사용자는 캡처 신호(108) 또는 세이브 신호(114) 중 하나를 전송하도록 인터랙션하기 전에 이 기능을 (제스처로) 수동으로 개시할 수 있다. 그러면 시스템(100)은, 소정 양의 메모리가 장면(106)의 인스턴스를 연속으로 수신하여 생성하는데 이용될 수 있는 원형 버퍼와 유사하게 동작하기 시작하고, 실행되면, 그 메모리에 있는 이전 데이터에 겹쳐쓰기를 시작한다. 캡처 신호(108)가 전송되면, 메모리는 캡처 신호(108)의 수신 전의 인스턴스 및 캡처 신호(108)의 수신부터 세이브 신호(114)의 수신까지의 임의의 인스턴스를 저장한다. 이 기능은 캡처 신호(108)의 활성화 전의 장면(106)의 컨텐츠(이미지, 오디오 등)를 "간직할(lock in)" 수 있다.
사실은, 사용자 또는 디바이스 구성은 세이브 신호(114)의 수신 후의 미리 정해진 시간 동안 장면 컨텐츠를 캡처 및 저장하는 것이다. 이에, 시스템(100)은 캡처전(pre-capture) 컨텐츠의 인스턴스 및 세이브후(post-save) 컨텐츠의 인스턴스를 제공한다. 그리고 나서 사용자는 이 컨텐츠도 다양한 미디어 포맷으로 자세히 검토하고 원한다면, 원하는 출력을 제공하도록 편집하는 것이 가능하다.
시스템(100)은 소정의 장면 및 시간에 대한 최적 출력의 사용자 선택 및/또는 자동 선택을 가능하게 하도록 구성된 소프트웨어일 수 있는 매니지먼트 컴포넌트(118)를 더 포함할 수 있다. 매니지먼트 컴포넌트(118)는 또한 사용자가 캡처전 작업에 대한 세팅(예컨대, 지속 시간, 프레임 또는 이미지 카운트 등), 세이브후 작업에 대한 세팅(예컨대, 지속 시간, 프레임 또는 이미지 카운트 등) 등을 할 수 있게 하도록 데이터 컴포넌트(110) 및/또는 이미징 컴포넌트(105)와 인터랙션하도록 구성될 수 있다.
프레젠테이션 컴포넌트(116)는 상이한 포맷 각각마다 컨텐츠의 포맷팅된 인스턴스(112)의 리뷰를 가능하게 한다. 이미징 컴포넌트(102)는 지속된 사용자 액션에 응답하여 이미지 센서 컨텐츠를 연속으로 기록하고 사용자 액션의 종료에 응답하여 이미지 센서 컨텐츠의 기록을 중지한다. 이것은 기계적으로 그리고/또는 순전히 소프트웨어를 통해 구현될 수 있다.
개시하는 아키텍처에 있어서, 소정의 컴포넌트들은 재배열, 조합, 생략될 수도 있고 추가 컴포넌트가 포함될 수도 있음은 물론이다. 부가적으로, 일부 실시형태에 있어서, 컴포넌트의 전부 또는 일부는 클라이언트 상에 존재하지만, 다른 실시형태에서는 일부 컴포넌트가 서버 상에 상주할 수도 또는 근거리 서비스(local service)로 또는 원격 서비스로 제공될 수도 있다.
도 2는 개시하는 아키텍처의 일 구현예의 흐름도(200)이다. 이 예에 대해서는, 터치 사용자 인터페이스(204)와의 사용자 인터랙션에 오른쪽 검지가 필요한 핸드헬드 디바이스(202)를 이용해서 설명한다. 그러나, 디바이스의 동작에 대해 적절하게 설계되는 경우에는 임의의 제스처(예컨대, 촉각, 에어, 음성 등)가 이용될 수 있는 것은 물론이다. 여기서, 터치 사용자 인터페이스(204)는 사용자가 터치하는 디스플레이 상에 스팟(206)(인터랙티브 디스플레이 컨트롤)을 제시한다. 지속된 접촉 또는 터치 압력이 캡처 신호를 개시한다. 대안적으로, 그러나 이것에 한정되지는 않지만, 순간의 촉각적 접촉(터치 탭) 또는 긴 홀드(지속된 촉각적 접촉)도 작용한다.
①에서, 사용자는 핸드헬드 디바이스(202)를 잡고 사용자 인터페이스(204) 상에서 스팟(206)을 통해 디바이스(202)와 인터랙션하고 있다. 사용자 인터랙션은 디바이스 이미징 서브시스템(예컨대, 시스템(100))에 수신되는 것인, 이미지 센서 컨텐츠의 인스턴스의 캡처를 개시하도록 지정된 스팟(206)에서의 터치 감응 디바이스 디스플레이(사용자 인터페이스(204))를 (검지나 집게 손가락을 이용해) 터치하는 것을 포함한다. 디스플레이 스팟(206) 상에서의 촉각적 압력을 지속시키는 동안에, 캡처 신호가 개시되고, 타이머(208)가 사용자 인터페이스(204)에 표시되어, 지속된 누리기 또는 캡처 액션의 지속 시간을 사용자에게 표시하도록 증가하기 시작한다. 사용자가 터치 압력을 중지할 때에, 이것은 또한 캡처되어 세이브된 컨텐츠의 길이도 나타낸다.
②에서, 사용자가 터치 인터랙션을 중지할 때(즉, 디스플레이와의 접촉으로부터 손가락을 들 때)에, 사용자 인터페이스(204)는 "리프트" 애니메이션("lift" animation)을 제시함으로써 뷰를 활발하게 하고(animate)(사용자 인터페이스 뷰에서의 컨텐츠의 치수 사이즈를 저감시키고), 또한 저감된 컨텐츠(인스턴스)를 디스플레이로부터 왼쪽으로 이동시켜 활발하게 한다. 리프트 애니메이션은 또한 디바이스에서 세이브 신호가 수신되었음을 사용자에게 표시할 수도 있다. 세이브된 컨텐츠(인스턴스(210))는 디스플레이의 좌측에 부분적으로 제시되어, 사용자에게, 리뷰를 위해 나중에 컨텐츠를 오른쪽으로 끌어당길 수 있는 그랩 포인트(grab point)를 표시할 수 있다.
③에서, 세이브 신호가 검출되었기 때문에, 디바이스는 디바이스 이미저(device imager)가 장면을 수신하고 처리할 때에 사용자가 실제 장면의 실시간 이미지를 볼 수 있는 라이브 뷰 파인더(live viewfinder)(212)로 자동으로 리턴한다.
대안으로, ③에서, 디바이스 이미징 서브시스템은 사용자 인터페이스(204)에 디폴트 인스턴스를 자동으로 제시한다. 디폴트 인스턴스는 일련의 이미지 중 항상 단일 이미지를 제시하도록 매니지먼트 컴포넌트(118)를 통해 수동으로 구성될 수 있다. 대안으로, 이미징 서브시스템은 디폴트 인스턴스로서 보기 위한 미디어 포맷을 자동으로 선택한다. 본 명세서에서 사용되는 용어 "인스턴스(instance)"는 단일 이미지, 다수의 이미지, 다수의 이미지를 포함하는 비디오 미디어 포맷, 및 3D 형상 출력을 의미할 수 있음을 알아야 한다.
④에서, 사용자는 부분 세이브된 컨텐츠와, 또는 추가 관찰을 위해 세이브된 컨텐츠를 보도록 끌어당기기 위해 인터랙션할 수 있는 것을 사용자에게 표시하도록 적절하게 설계된 일부 컨트롤과 인터랙션한다. 이 상태에서, 사용자는 동일한 이미지 캡처 세션 또는 상이한 세션 동안에 캡처된 제2 인스턴스(214) 등의 사진들의 "롤"(roll)에서 다른 인스턴스를 보기 위해 (예를 들어, 터치 및 드래그 액션을 이용하여) 왼쪽 또는 오른쪽으로 이동할 수 있다.
⑤에서, 리뷰 프로세스 전에, 도중에, 또는 후에, 사용자는 캡처된 컨텐츠(인스턴스)를 보기 위한 유형의 이미 포맷팅된 컨텐츠를 선택할 수 있다.
도 3은 다중 포맷을 이용한 사용자 인터랙션 유니버설 캡처의 흐름도(300)이다. 302에서, 사용자는 터치를 통해 인터랙티브 컨트롤(스팟(206))과 인터랙션한다. 304에서, 사용자가 스팟(206) 상에서 터치를 지속하면, 사용자가 캡처 모드 지속시간을 볼 수 있도록 타이머가 보이게 된다. 306에서, 사용자가 스팟(206) 상에서의 터치 액션을 종료하면, 세이브 신호가 검출되고, 캡처된 컨텐츠를 볼 수 있는 다수의 포맷 중 하나를 사용자가 선택할 수 있도록 사용자 인터페이스에 미디어 포맷 블록(309)이 표시될 수 있다. 여기서, 사용자는 뷰 포맷으로서 인터랙티브 3D 포맷을 선택한다.
도 4는 캡처되어 저장된 컨텐츠를 리뷰할 수 있게 하는 예시적인 사용자 인터페이스(400)를 도시하는 도면이다. 본 예시적인 실시형태에서는, 이미지 캡처 및 세이브에 대응하는 사용자 인터랙션에 대해 슬라이더 컨트롤(402)이 제시된다. 사용자는 미디어 포맷 중 임의의 것으로 프레임(개별 이미지)을 리뷰하기 위해 슬라이드 컨트롤(402)을 이용할 수 있다.
개시되는 아키텍처의 신규한 양태를 수행하기 위한 예시적인 방법론을 대표하는 흐름도의 세트가 여기에 포함된다. 설명의 간편성을 위해, 본 명세서에서 예를 들어 흐름도 또는 흐름 도면의 형태로 나타내는 하나 이상의 방법론을 일련의 단계(act)로서 나타내고 설명하고 있지만, 이들 방법론은 그에 따라, 일부 단계가 본 명세서에 나타내고 설명하는 것과는 다른 단계와 동시에 그리고/또는 상이한 순서로, 일어날 수도 있는 것처럼, 단계의 순서에 한정되지 않음을 이해하고 알아야 한다. 예를 들어, 당업자라면 방법론이 상태도와 같이 일련의 상관된 상태 또는 이벤트로서 대안적으로 표현될 수 있음을 이해하고 알 것이다. 또한, 방법론에 예시하는 모든 단계가 신규한 구현에 필수적이지 않을 수도 있다.
도 5는 개시하는 아키텍처에 따라 이미지 센서 컨텐츠를 처리하는 방법을 나타내는 도면이다. 500에서, 캡처 신호에 응답하여 카메라에서 이미지 센서 컨텐츠의 인스턴스가 연속으로 생성된다. 502에서, 세이브 신호의 수신에 응답하여 이미지 센서 컨텐츠의 인스턴스가 카메라에 저장된다. 504에서, 이미지 센서 컨텐츠의 인스턴스가 카메라에서 그리고 상이한 미디어 포맷으로 포맷팅된다. 506에서, 이미지 센서 컨텐츠의 인스턴스를 상이한 포맷으로 볼 수 있다.
이 방법은 카메라로 이미지 센서 컨텐츠를 연속으로 생성하게 할 수 있는 캡처 신호를 단일 의도의(single intended)(부수적인 요소 없는) 지속된 사용자 제스처(예컨대, 지속된 터치 또는 압력 접촉, 손 제스처 등)로서 검출하는 단계를 더 포함할 수 있다. 방법은 이미지 센서 컨텐츠의 인스턴스를 이미지 포맷, 비디오 포맷, 및 3차원 포맷 중 하나 이상으로서 포맷팅하는 단계를 더 포함할 수 있다. 방법은 디폴트 출력을 설정하기 위해 사용자 구성 없이 사용자가 보도록 디폴트 출력으로서 상이한 포맷 중 하나를 자동으로 선택하는 단계를 더 포함할 수 있다.
방법은 단일 제스처를 이용하여 캡처 신호를 개시하는 단계를 더 포함할 수 있다. 방법은 캡처 신호를 수신하기 이전에 이미지 센서 컨텐츠의 인스턴스의 저장 및 포맷팅을 가능하게 하는 단계를 더 포함할 수 있다. 방법은 이미지 센서 컨텐츠의 인스턴스를 인터랙티브 3D 형상으로서 포맷팅하는 단계를 더 포함할 수 있다.
도 6은 개시하는 아키텍처에 따른 대안적 방법을 도시하는 도면이다. 방법은 컴퓨터 판독 가능한 저장 매체 상에 컴퓨터 실행 가능한 명령어로서 포함될 수 있으며, 이 컴퓨터 실행 가능한 명령어는 마이크로프로세서에 의해 실행될 때에, 마이크로프로세서로 하여금 다음의 단계를 수행하게 한다. 600에서, 캡처 신호에 응답하여 컴퓨팅 디바이스에서 이미지 센서 컨텐츠의 인스턴스가 연속으로 생성된다. 602에서, 세이브 신호의 수신에 응답하여 이미지 센서 컨텐츠의 인스턴스가 컴퓨팅 디바이스에 이미지 미디어, 비디오 미디어, 및 3차원 미디어로서 포맷팅되어 저장된다. 604에서, 포맷팅된 이미지 센서 컨텐츠의 선택이 사용자 제스처에 응답하여 제시된다.
방법은 디폴트 출력을 설정하기 위해 사용자 구성 없이 사용자가 보도록 디폴트 출력으로서 상이한 포맷 중 하나를 자동으로 선택하는 단계를 더 포함할 수 있다. 방법은 단일 제스처를 이용하여 세이브 신호를 개시하는 단계를 더 포함할 수 있다. 방법은 캡처 신호를 수신하기 이전에 그리고 세이브 신호 후에 이미지 센서 컨텐츠의 인스턴스의 저장 및 포맷팅을 가능하게 하는 단계를 더 포함할 수 있다. 방법은 이미지 센서 컨텐츠의 인스턴스를 인터랙티브 3D 형상으로서 포맷팅하는 단계를 더 포함할 수 있다.
도 7은 개시하는 아키텍처를 내장할 수 있는 핸드헬드 디바이스(700)를 도시하는 도면이다. 디바이스(700)는 스마트폰, 카메라, 또는 기타 적절한 디바이스일 수 있다. 디바이스(700)는 이미징 컴포넌트(102), 데이터 컴포넌트(110), 프레젠테이션 컴포넌트(116), 및 매니저먼트 컴포넌트(118)를 포함할 수 있다.
컴퓨팅 서브시스템(702)은 이미징 컴포넌트에 의해 생성되는 수신된 컨텐츠를 처리하기 위한 프로세서 및 연관된 칩을 포함할 수 있다. 컴퓨팅 서브시스템(702)은 디바이스(700)의 운영체제, 및 예를 들어 NUI 제스처에 대한 제스처 인식 소프트웨어 등의, 디바이스의 전체 기능을 경험하는데 필요한 기타 코드를 실행한다. 또한 컴퓨팅 서브시스템(702)은 적어도 개시하는 아키텍처의 유니버설 캡처 특징과 함께, 디바이스 및/또는 디스플레이에 대한 사용자의 인터랙션을 가능하게 하는 소프트웨어를 실행한다. 사용자 인터페이스(704)는 사용자 제스처 인터랙션을 가능하게 한다. 저장 서브시스템(706)은 캡처된 컨텐츠를 저장하기 위한 메모리를 포함할 수 있다. 전원 서브시스템(708)은 모든 기능의 발휘 및 코드 실행을 위해 디바이스(700)에 전원을 제공한다. 기계식 컴포넌트(710)는 예컨대 전원 온/오프, 셔터 컨트롤, 전원 접속, 줌 인/아웃, 및 사용자가 디바이스(700)에 의해 제공되는 세팅에 영향을 미치게 할 수 있는 기타 버튼 등의 임의의 기계식 버튼을 포함한다. 통신 인터페이스(712)는 USB, 단거리 통신 기술, 오디오 입력용 마이크, 재생 시에 사용하기 위한 스피커 출력 등과 같은 접속성을 제공한다.
예를 들어 핸드헬드 디바이스(700)에서 구현되는 개시하는 아키텍처에 있어서, 소정의 컴포넌트들은 재배열, 조합, 생략될 수도 있고 추가 컴포넌트가 포함될 수도 있음은 물론이다. 부가적으로, 일부 실시형태에 있어서, 컴포넌트의 전부 또는 일부는 클라이언트 상에 존재하지만, 다른 실시형태에서는 일부 컴포넌트가 서버 상에 상주할 수도 또는 근거리 서비스(local service)로 또는 원격 서비스로 제공될 수도 있다.
본원에 사용되는 용어인 "컴포넌트(component)" 및 "시스템(system)"은 하드웨어, 소프트웨어와 유형적인(tangible) 하드웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어 중 하나인 컴퓨터 관련된 엔티티를 나타내는 것이 의도된다. 예를 들어, 마이크로프로세서, 칩 메모리, 대용량 디바이스(예컨대, 광학적 드라이브, 솔리드 스테이트 드라이브, 및/또는 자기 저장 매체 드라이브) 및 컴퓨터 등의 유형적인 컴포넌트, 및 마이크로프로세서, 객체, 실행 가능한 (휘발성 또는 비휘발성 저장 매체에 저장된) 데이터 구조, 모듈, 실행되는 스레드, 및/또는 프로그램 등의 소프트웨어 컴포넌트일 수 있으나, 이들에 제한되지는 않는다.
예시적으로, 서버 상에서 실행되는 애플리케이션 및 서버도 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 실행되는 프로세스 및/또는 스레드 내에 상주할 수 있고, 한 컴포넌트가 하나의 컴퓨터 상에 배치되고/되거나 2개 이상의 컴퓨터 사이에 분산될 수도 있다. "예시적인"이란 표현은 예, 실례 또는 예시로서 기능하는 것을 의미하기 위해 본 명세서에서 사용될 수 있다. "예시적인"것으로서 여기에서 설명하는 임의의 양태 또는 설계가 다른 양태 또는 설계보다 더 바람직하거나 효과적인 것으로서 해석되어서는 안 된다.
이제 도 8을 참조하면, 개시하는 아키텍처에 따라 유니버설 캡처를 실행하는 컴퓨팅 시스템(800)의 블록도가 도시되고 있다. 그러나, 개시하는 방법 및/또는 시스템의 양태의 일부 또는 전부는 시스템 온 칩(system-on-a-chip)으로서 구현되며, 이 경우 아날로그, 디지털, 혼합 신호, 및 기타 기능이 단일 칩 기판 상에 제조되는 것임을 이해하게 된다.
그 다양한 양태에 대한 추가 배경을 제공하기 위해, 도 8 및 이어지는 설명은 다양한 양태가 구현될 수 있는 적절한 컴퓨팅 시스템(800)의 간단한 일반적인 설명을 제공하는 것을 목적으로 한다. 이상의 설명은 하나 이상의 컴퓨터 상에서 구동할 수 있는 컴퓨터 실행 가능한 명령어의 일반적인 상황 하에 있지만, 당업자라면 신규한 실시형태가 다른 프로그램 모듈과 함께 그리고/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수도 있음을 인식할 것이다.
다양한 양태를 구현하는 컴퓨팅 시스템(800)은 마이크로프로세싱 유닛(804)(마이크로프로세서 및 프로세서라고도 함), 시스템 메모리(806) 등의 컴퓨터 판독 가능한 저장 매체(컴퓨터 판독 가능한 저장 매체/매체들은 또한 자기 디스크, 광 디스크, 솔리드 스테이트 드라이브, 외부 메모리 시스템, 및 플래시 메모리 드라이브를 포함함), 및 시스템 버스(808)를 구비한 컴퓨터(802)를 포함한다. 마이크로프로세싱 유닛(804)은 싱글 프로세서, 멀티 프로세서, 프로세싱 및/또는 저장 회로의 싱글 코어 유닛 및 멀티 코어 유닛 등의 상업적으로 입수 가능한 다양한 마이크로프로세서 중 임의의 것일 수 있다. 또한, 당업자라면 미니컴퓨터, 메인프레임 컴퓨터 뿐만 아니라, 개인용 컴퓨터(예컨대, 데스크탑, 랩탑, 태블릿 PC 등), 핸드헬드 컴퓨팅 디바이스, 마이크로프로세서 기반 또는 프로그래머블 가전제품 등을 포함하는 기타 컴퓨터 시스템 구성으로도 실시될 수 있음을 알 것이며, 이들 각각은 하나 이상의 연관된 디바이스에 동작 가능하게 연결될 수 있다.
컴퓨터(802)는 무선 통신 디바이스, 셀룰러폰, 및 기타 모바일 가능 디바이스 등의 휴대용 및/또는 모바일 컴퓨팅 시스템에 대한 클라우드 컴퓨팅 서비스의 지원으로 데이터센터 및/또는 컴퓨팅 리소스(하드웨어 및/또는 소프트웨어)에 채택되는 여러 컴퓨터 중 하나일 수 있다. 클라우드 컴퓨팅 서비스는, 예를 들어 서비스로서 인프라구조, 서비스로서 플랫폼, 서비스로서 소프트웨어, 서비스로서 스토리지, 서비스로서 데스크탑, 서비스로서 데이터, 서비스로서 시큐리티, 및 서비스로서 API(application program interface)를 포함하나 이들에 한정되지는 않는다.
시스템 메모리(806)는 휘발성(VOL) 메모리(810)(예컨대, RAM(random access memory))와 비휘발성 메모리(NON-VOL)(812)(예컨대, ROM, EPROM, EEPROM 등) 등의 컴퓨터 판독 가능한 저장(물리적 저장) 매체를 포함할 수 있다. 비휘발성 메모리(812)에 저장될 수 있는 BIOS(basic input/output system)는 예컨대 시동시에 컴퓨터(802) 내의 컴포넌트들 사이에서 데이터 및 신호의 통신을 가능하게 하는 기본 루틴을 포함한다. 또한, 휘발성 메모리(810)는 데이터를 캐싱하는 스태틱 RAM 등의 고속 RAM을 포함한다.
시스템 버스(808)는, 마이크로프로세싱 유닛(804)에 대한 시스템 메모리(806)를 포함하나 이에 한정되지 않은 시스템 컴포넌트에 인터페이스를 제공한다. 시스템 버스(808)는 각종 상업적으로 입수 가능한 버스 아키텍처 중 임의의 것을 이용하여 메모리 버스(메모리 컨트롤러의 유무에 관계 없이) 및 주변장치 버스(예컨대, PCI, PCIe, AGP, LPC 등)에 추가로 상호접속할 수 있는 여러 종류의 버스 구조 중 임의의 것일 수 있다.
컴퓨터(802)는 머신 판독 가능한 저장 서브시스템(814)과, 그 저장 서브시스템(814)을 시스템 버스(808)에 그리고 기타 원하는 컴퓨터 컴포넌트 및 회로에 인터페이싱하는 저장 인터페이스(816)를 더 포함한다. 저장 서브시스템(814)(물리적 저장 매체)은 예컨대 하드 디스크 드라이브(HDD), 자기 플로피 디스크 드라이브(FDD), 솔리드 스테이트 드라이브(SSD), 플래시 드라이브, 및/또는 광 디스크 저장 드라이브(예컨대, CD-ROM 드라이브 DVD 드라이브) 중 하나 이상을 포함할 수 있다. 저장 인터페이스(816)는 예컨대 EIDE, ATA, SATA, 및 IEEE 1394 등의 인터페이스 기술을 포함할 수 있다.
운영체제(820), 하나 이상의 애플리케이션 프로그램(822), 기타 프로그램 모듈(824), 및 프로그램 데이터(826)를 포함하는 하나 이상의 프로그램 및 데이터가 메모리 서브시스템(806), 머신 판독 가능 및 분리 가능 메모리 서브시스템(818)(예컨대, 플래시 드라이브 폼팩터 기술), 및/또는 저장 서브시스템(814)(예컨대, 광, 자기, 솔리드 스테이트)에 저장될 수 있다.
운영체제(820), 하나 이상의 애플리케이션 프로그램(822), 기타 프로그램 모듈(824), 및/또는 프로그램 데이터(826)는, 예컨대 도 1의 시스템(100)의 아이템 및 컴포넌트와, 도 2의 흐름도(200)의 아이템 및 컴포넌트와, 도 3의 도면(300)의 아이템 및 흐름과, 도 4의 사용자 인터페이스(400), 및 도 5와 도 6의 흐름도에 나타내는 방법을 포함할 수 있다.
일반적으로, 프로그램은 특정 태스크, 함수를 수행하거나 특정 추상 데이터 타입을 구현하는, 루틴, 메소드, 데이터 구조, 기타 소프트웨어 컴포넌트 등을 포함한다. 운영체제(820), 애플리케이션(822), 모듈(824), 및/또는 데이터(826)의 전부 또는 일부는 예컨대 휘발성 메모리(810) 및/또는 비휘발성 메모리 등의 메모리에 캐시될 수도 있다. 개시하는 아키텍처는 각종 상업적으로 입수 가능한 운영체제 또는 운영체제의 조합으로 (예컨대 가상 머신으로서) 구현될 수 있음을 이해해야 한다.
저장 서브시스템(814) 및 메모리 서브시스템(806 및 818)은 데이터, 데이터 구조, 컴퓨터 실행 가능한 명령어 등의 휘발성 및 비휘발성 저장용의 컴퓨터 판독 가능한 매체로서 기능한다. 그러한 명령어는, 컴퓨터 또는 기타 머신에 의해 실행될 때에, 그 컴퓨터 또는 기타 머신으로 하여금 방법의 하나 이상의 단계를 수행하게 할 수 있다. 컴퓨터 실행 가능한 명령어는 범용 컴퓨터, 전문용 컴퓨터, 또는 전문용 멀티프로세서 디바이스로 하여금 소정의 함수 또는 함수의 그룹을 수행하게 하는 예컨대 명령어 및 데이터를 포함한다. 컴퓨터 실행 가능한 명령어는 예를 들어, 바이너리, 어셈블리 언어 등의 중간 포맷 명령어, 또는 심지어 소스 코드일 수도 있다. 단계(act)를 수행하는 명령어들은 그 명령어들이 전부 동일한 매체 상에 있는지에 관계없이, 하나 이상의 컴퓨터 판독 가능한 매체/매체들 상에서 집합적으로 보일 수 있도록, 하나의 매체 상에 저장되거나 다중 매체 상에 저장될 수 있다.
컴퓨터 판독 가능한 저장 매체는 컴퓨터(802)에 의해 액세스될 수 있는, 전파 신호 그 자체는 배제할 수 있으며, 분리식 및/또는 비분리식인 휘발성 및 비휘발성 내장 및/또는 외장 매체를 포함한다. 컴퓨터(802)의 경우, 다양한 유형의 저장 매체가 임의의 적절한 디지털 포맷으로 데이터의 저장을 도모한다. 당업자라면, 개시하는 아키텍처의 신규한 방법(단계)을 수행하는 컴퓨터 실행 가능한 명령어를 저장하기 위해 zip 드라이브, 솔리드 스테이트 드라이브, 자기 테이프, 플래시 메모리 카드, 플래시 드라이브, 카트리지 등의 다른 유형의 컴퓨터 판독 가능한 매체가 채택될 수 있음을 이해해야 할 것이다.
사용자는 키보드와 마우스 등의 외부 사용자 입력 디바이스(828)뿐만 아니라 스피치 인식으로 가능한 음성 커맨드를 이용해 컴퓨터(802), 프로그램 및 데이터와 인터랙션할 수 있다. 기타 외부 사용자 입력 디바이스(828)는 마이크, IR(적외선) 리모콘, 조이스틱, 게임 패드, 카메라 인식 시스템, 스타일러스 펜, 터치 스크린, 제스처 시스템(예컨대, 눈 움직임과, 손, 손가락, 팔, 머리 등에 관한 신체 포즈) 등을 포함할 수 있다. 사용자는 컴퓨터(802)가 휴대용 컴퓨터인 경우에, 터치패드, 마이크, 키보드 등의 온보드 사용자 입력 디바이스(830)를 이용하여 컴퓨터(802), 프로그램 및 데이터와 인터랙션할 수 있다
이들 및 기타 입력 디바이스는 병렬 포트, IEEE 1397 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 단거리 무선(예컨대, 블루투스) 및 기타 PAN(personal area network) 기술 등의 다른 인터페이스에 의해 접속될 수 있는 시스템 버스(808)를 경유해 입출력(I/O) 디바이스 인터페이스(832)를 통해 마이크로프로세싱 유닛(804)에 접속된다. 사운드 카드 및/또는 온보드 오디오 프로세싱 기능 등의, I/O 디바이스 인터페이스(832)는 또한 프린터, 오디오 디바이스, 카메라 디바이스 등등의 출력 주변장치(834)의 이용을 용이하게 한다.
하나 이상의 그래픽 인터페이스(836)(흔히들 GPU(graphics processing unit)라고도 함)는 컴퓨터(802)와 외부 디스플레이(838)(예컨대, LCD, 플라즈마) 및/또는 온보드 디스플레이 디스플레이(840)(예컨대, 휴대용 컴퓨터) 사이에 그래픽 및 비디오 신호를 제공한다. 그래픽 인터페이스(836)는 컴퓨터 시스템 보드의 일부로서 제조될 수도 있다.
컴퓨터(802)는 유선/무선 통신 서브시스템(842)을 통해 하나 이상의 네트워크 및/또는 기타 컴퓨터와의 논리적 접속을 이용해 네트워킹 환경(예컨대, IP 기반)에서 동작할 수 있다. 기타 컴퓨터는 워크스테이션, 서버, 라우터, 개인용 컴퓨터, 마이크프로세서 기반의 엔터테인먼트 가전제품, 피어 디바이스(peer device) 또는 기타 공통 네트워크 노드를 포함할 수 있고, 통상 컴퓨터(802)에 대해 기술한 엘리먼트의 다수 또는 전부를 포함한다. 논리적 접속은 LAN(local area network), WAN(wide area network), 핫스팟 등에 대한 유선/무선 접속성을 포함할 수 있다. LAN 및 WAN 네트워킹 환경은 사무실 및 기업에서 흔하며, 인트라넷 등의 전사적 컴퓨터 네트워크를 가능하게 하며, 이들 네트워크 전부는 인터넷 등의 글로벌 통신 네트워크에 접속될 수 있다.
네트워킹 환경에서 이용될 때에, 컴퓨터(802)는 유선/무선 네트워크, 유선/무선 프린터, 유선/무선 입력 디바이스(844) 등과 통신하기 위해 유선/무선 통신 서브시스템(842)(예컨대, 네트워크 인터페이스 어댑터, 온보드 트랜시버 서브시스템 등)을 통해 네트워크에 접속된다. 컴퓨터(802)는 네트워크를 통한 통신을 확립하는 모뎀 또는 기타 수단을 포함할 수 있다. 네트워킹 환경에서, 컴퓨터(802)에 대한 프로그램 및 데이터는 분산형 시스템과 연관되는 것인 원격 메모리/저장 디바이스에 저장될 수 있다. 도시하는 네트워크 접속은 예시적인 것이고, 컴퓨터들 간의 통신 링크를 확립하는 다른 수단이 이용될 수 있음을 이해하게 될 것이다.
컴퓨터(802)는 예를 들어, 프린터, 스캐너, 데스크탑 및/또는 휴대용 컴퓨터, PDA(personal digital assistant), 통신 위성, 무선으로 검출 가능한 태그와 연관된 장비 또는 장소의 임의의 구획(예컨대, 키오스크, 뉴스 스탠드, 휴게실), 및 전화와의 무선 통신으로 동작 가능하게 배치된 무선 디바이스 등의 IEEE 802.xx 패밀리의 표준 등의 무선 기술을 이용하여 유선/무선 디바이스 또는 엔티티와 통신하도록 동작 가능하다. 이것은 핫스팟, WiMax, 및 블루투스™ 무선 기술을 위한 (무선 컴퓨터 네트워킹 디바이스의 상호운용성을 인증하는데 이용된) 적어도 하나의 Wi Fi™를 포함한다. 이에, 통신은 종래의 네트워크, 즉 간단하게는 적어도 2개의 디바이스 사이의 애드훅 통신과 마찬가지로 미리 정의된 구조일 수 있다. Wi-Fi 네트워크는 보안적이고 신뢰성 있으며 고속의 무선 접속성을 제공하기 위해 IEEE 802.11x (a, b, g, 등)라고 불리는 무선 기술을 이용한다. Wi-Fi 네트워크는 컴퓨터를 서로에 대해, 인터넷에, 그리고 (IEEE 802.3 관련 기술 및 기능을 이용하는) 유선 네트워크에 접속하는데 이용될 수 있다.
이상 설명한 것은 개시된 아키텍처의 예들을 포함한다. 물론, 컴포넌트 및/또는 방법론의 발상 가능한 모든 조합을 설명하는 것은 가능하지 않지만, 당업자라면 다수의 추가 조합 및 치환이 가능함을 인식할 수 있다. 따라서, 신규한 아키텍처는 첨부하는 청구범위의 사상 및 범주 내에 있는 그러한 대체, 변형 및 변화를 모두 망라하는 것이 의도된다. 더욱이, 용어 "포함한다(includes)"가 상세한 설명 또는 청구범위에 사용되는 정도에서, 상기 용어는 "포함하는(comprising)"이 청구범위에 전통적인 단어로서 채택될 때에 해석되는 경우와 같이 용어 "포함하는(comprising)"과 같은 방식으로 포괄적인 것이 의도된다.

Claims (10)

  1. 시스템에 있어서,
    캡처 신호(capture signal)에 응답하여 이미지 센서 컨텐츠의 인스턴스를 연속으로 생성하도록 구성되는, 디바이스의 이미징 컴포넌트와,
    세이브 신호(save signal)의 수신에 응답하여 상기 이미지 센서 컨텐츠의 인스턴스를 상이한 미디어 포맷으로 포맷팅하도록 구성되는, 디바이스의 데이터 컴포넌트와,
    상기 상이한 포맷으로 상기 이미지 센서 컨텐츠의 인스턴스의 인터랙티브 뷰잉(interactive viewing)을 가능하게 하도록 구성되는, 디바이스의 프레젠테이션 컴포넌트와,
    상기 이미징 컴포넌트, 상기 데이터 컴포넌트, 및 상기 프레젠테이션 컴포넌트와 연관된 메모리에 저장된 컴퓨터 실행 가능한 명령어를 실행하도록 구성되는, 디바이스의 적어도 하나의 마이크로프로세서
    를 포함하는 시스템.
  2. 제1항에 있어서, 상기 데이터 컴포넌트는 이미지 센서 컨텐츠의 인스턴스를 이미지, 비디오, 및 3차원 미디어로서 포맷팅하는 것인 시스템.
  3. 제1항에 있어서, 주어진 장면에 대해 최적 출력의 자동 선택을 가능하게 하도록 구성되는 매니지먼트 컴포넌트를 더 포함하는 시스템.
  4. 제1항에 있어서, 상기 데이터 컴포넌트는 이미지의 연속 인스턴스를 인터랙티브 3차원 형상으로 변환하는 알고리즘과, 상기 캡처 신호의 활성화 전에 그리고 상기 세이브 신호의 활성화 후에 상기 이미지의 인스턴스의 기록(recording)을 가능하게 하는 알고리즘을 포함하는 것인 시스템.
  5. 제1항에 있어서, 상기 이미징 컴포넌트는 지속된 사용자 액션(sustained user action)에 응답하여 상기 이미지 센서 컨텐츠를 연속으로 기록하고, 상기 사용자 액션의 종료에 응답하여 상기 이미지 센서 컨텐츠의 기록을 중지하는 것인 시스템.
  6. 카메라에서 이미지 센서 컨텐츠를 처리하는 방법에 있어서,
    카메라에서, 캡처 신호에 응답하여 이미지 센서 컨텐츠의 인스턴스를 연속으로 생성하는 단계와,
    세이브 신호의 수신에 응답하여 상기 이미지 센서 컨텐츠의 인스턴스를 상기 카메라에 저장하는 단계와,
    상기 이미지 센서 컨텐츠의 인스턴스를 상기 카메라에서 그리고 상이한 미디어 포맷으로 포맷팅하는 단계와,
    상기 이미지 센서 컨텐츠의 인스턴스를 상기 상이한 포맷으로 볼 수 있게 하는 단계와,
    상기 생성하는 단계, 상기 저장하는 단계, 상기 포맷팅하는 단계, 및 상기 볼 수 있게 하는 단계에 관해 메모리에 저장된 명령어들을 실행하도록 마이크로프로세서 회로를 구성하는 단계
    를 포함하는 이미지 센서 컨텐츠의 처리 방법.
  7. 제6항에 있어서, 상기 카메라로 상기 이미지 센서 컨텐츠를 연속으로 생성하게 하도록 의도되고 지속된 사용자 제스처로서 상기 캡처 신호를 검출하는 단계를 더 포함하는 이미지 센서 컨텐츠의 처리 방법.
  8. 제6항에 있어서, 디폴트 출력을 설정하는 데에 사용자 구성(user configuretion) 없이 사용자 뷰잉(user viewing)을 위한 디폴트 출력으로서 상기 상이한 포맷 중 하나를 자동으로 선택하는 단계를 더 포함하는 이미지 센서 컨텐츠의 처리 방법.
  9. 제6항에 있어서, 단일 제스처를 이용하여 상기 캡처 신호를 개시하는 단계를 더 포함하는 이미지 센서 컨텐츠의 처리 방법.
  10. 제6항에 있어서, 상기 캡처 신호를 수신하기 이전에 상기 이미지 센서 컨텐츠의 인스턴스의 저장 및 포맷팅을 가능하게 하는 단계를 더 포함하는 이미지 센서 컨텐츠의 처리 방법.
KR1020167023384A 2014-01-27 2015-01-21 유니버설 캡처 KR20160114126A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/165,442 US20150215530A1 (en) 2014-01-27 2014-01-27 Universal capture
US14/165,442 2014-01-27
PCT/US2015/012111 WO2015112517A1 (en) 2014-01-27 2015-01-21 Universal capture

Publications (1)

Publication Number Publication Date
KR20160114126A true KR20160114126A (ko) 2016-10-04

Family

ID=52463162

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167023384A KR20160114126A (ko) 2014-01-27 2015-01-21 유니버설 캡처

Country Status (15)

Country Link
US (1) US20150215530A1 (ko)
EP (1) EP3100450A1 (ko)
JP (1) JP2017509214A (ko)
KR (1) KR20160114126A (ko)
CN (1) CN106063248A (ko)
AU (1) AU2015209516A1 (ko)
BR (1) BR112016016323A2 (ko)
CA (1) CA2935233A1 (ko)
CL (1) CL2016001892A1 (ko)
IL (1) IL246346A0 (ko)
MX (1) MX2016009710A (ko)
PH (1) PH12016501225A1 (ko)
RU (1) RU2016129848A (ko)
SG (1) SG11201606006UA (ko)
WO (1) WO2015112517A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10932733B2 (en) * 2016-09-14 2021-03-02 Dental Imaging Technologies Corporation Multiple-dimension imaging sensor with operation based on movement detection
CN107819992B (zh) * 2017-11-28 2020-10-02 信利光电股份有限公司 一种三摄像头模组及电子设备
MX2020012325A (es) 2018-05-18 2021-01-29 Essity Hygiene & Health Ab Deteccion de presencia y ausencia.

Family Cites Families (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7110025B1 (en) * 1997-05-28 2006-09-19 Eastman Kodak Company Digital camera for capturing a sequence of full and reduced resolution digital images and storing motion and still digital image data
US6313877B1 (en) * 1997-08-29 2001-11-06 Flashpoint Technology, Inc. Method and system for automatically managing display formats for a peripheral display coupled to a digital imaging device
US6978051B2 (en) * 2000-03-06 2005-12-20 Sony Corporation System and method for capturing adjacent images by utilizing a panorama mode
US7548266B1 (en) * 2000-04-06 2009-06-16 Mikel A Lehrman Methods and apparatus for providing portable photographic images
JP4465577B2 (ja) * 2001-04-19 2010-05-19 ソニー株式会社 情報処理装置および方法、情報処理システム、記録媒体、並びにプログラム
US6992707B2 (en) * 2002-03-06 2006-01-31 Hewlett-Packard Development Company, L.P. Delayed encoding based joint video and still image pipeline with still burst mode
GB2399246B (en) * 2003-03-03 2006-01-11 Keymed High-speed digital video camera system and controller therefor
US9692964B2 (en) * 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
ES2292924T3 (es) * 2003-12-01 2008-03-16 Sony Ericsson Mobile Communications Ab Camara para registrar una secuencia de imagenes.
KR101424942B1 (ko) * 2004-07-30 2014-08-01 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
JP4586684B2 (ja) * 2005-08-31 2010-11-24 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8347212B2 (en) * 2005-11-10 2013-01-01 Lifereel, Inc. Presentation production system with universal format
US7889934B2 (en) * 2005-11-14 2011-02-15 Mediatek Inc. Image processing apparatus and processing method thereof
US20070216782A1 (en) * 2006-03-20 2007-09-20 Donald Lee Chernoff Method of processing and storing files in a digital camera
US20160241842A1 (en) * 2006-06-13 2016-08-18 Billy D. Newbery Digital Stereo Photographic System
JP4662071B2 (ja) * 2006-12-27 2011-03-30 富士フイルム株式会社 画像再生方法
JP4692770B2 (ja) * 2006-12-27 2011-06-01 富士フイルム株式会社 複眼デジタルカメラ
CA2684433A1 (en) * 2007-04-18 2008-10-30 Converdia, Inc. Systems and methods for providing wireless advertising to mobile device users
JP4720785B2 (ja) * 2007-05-21 2011-07-13 富士フイルム株式会社 撮像装置、画像再生装置、撮像方法及びプログラム
JP4932660B2 (ja) * 2007-10-05 2012-05-16 富士フイルム株式会社 画像記録装置及び画像記録方法
US8913176B2 (en) * 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
JP4760892B2 (ja) * 2008-10-10 2011-08-31 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
JP2010130437A (ja) * 2008-11-28 2010-06-10 Casio Computer Co Ltd 撮像装置、及び、プログラム
KR20100066036A (ko) * 2008-12-09 2010-06-17 삼성전자주식회사 휴대 단말기 운용 방법 및 장치
JP5463739B2 (ja) * 2009-06-03 2014-04-09 ソニー株式会社 撮像装置、画像処理方法及びプログラム
JP5531467B2 (ja) * 2009-07-03 2014-06-25 ソニー株式会社 撮像装置、および画像処理方法、並びにプログラム
JP5249149B2 (ja) * 2009-07-17 2013-07-31 富士フイルム株式会社 立体画像記録装置及び方法、立体画像出力装置及び方法、並びに立体画像記録出力システム
JP2011071605A (ja) * 2009-09-24 2011-04-07 Fujifilm Corp 立体撮像装置及び立体撮像方法
JP2011082918A (ja) * 2009-10-09 2011-04-21 Sony Corp 画像処理装置および方法、並びにプログラム
US9030469B2 (en) * 2009-11-18 2015-05-12 Industrial Technology Research Institute Method for generating depth maps from monocular images and systems using the same
EP2510504A4 (en) * 2009-12-07 2013-08-14 Photon X Inc 3D VISUALIZATION SYSTEM
US8108008B2 (en) * 2009-12-09 2012-01-31 Cheng Uei Precision Industry Co., Ltd. Electronic apparatus and controlling component and controlling method for the electronic apparatus
JP5894537B2 (ja) * 2010-02-09 2016-03-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3dビデオ・フォーマット検出
JP4875225B2 (ja) * 2010-03-31 2012-02-15 富士フイルム株式会社 立体撮像装置
CN102362487B (zh) * 2010-03-31 2014-09-10 富士胶片株式会社 立体成像设备
US20130169761A1 (en) * 2010-07-27 2013-07-04 Panasonic Corporation Image capturing device
EP2616879A4 (en) * 2010-09-16 2014-10-15 Medha Dharmatilleke METHODS AND CAMERA SYSTEMS FOR RECORDING AND CREATING THREE-DIMENSIONAL (3D) VIDEOS AND THREE-DIMENSIONAL (3D) PHOTOGRAPHS
JP5530322B2 (ja) * 2010-09-22 2014-06-25 オリンパスイメージング株式会社 表示装置および表示方法
JP2012094111A (ja) * 2010-09-29 2012-05-17 Sony Corp 画像処理装置、画像処理方法及びプログラム
US9185388B2 (en) * 2010-11-03 2015-11-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
JP4874425B1 (ja) * 2010-12-28 2012-02-15 オリンパスイメージング株式会社 再生装置および撮像装置
JP5853151B2 (ja) * 2011-01-24 2016-02-09 パナソニックIpマネジメント株式会社 撮像装置
EP2680594A4 (en) * 2011-02-24 2014-07-09 Kyocera Corp ELECTRONIC APPARATUS, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM
EP2693736A4 (en) * 2011-03-30 2014-08-27 Nec Casio Mobile Comm Ltd IMAGING APPARATUS, METHOD FOR DISPLAYING A PHOTOGRAPHIC INSTRUCTION FOR THE IMAGING APPARATUS AND NON-TRANSITORY COMPUTER READABLE MEDIUM
EP2696588B1 (en) * 2011-04-01 2019-09-04 Panasonic Corporation Three-dimensional image output device and method of outputting three-dimensional image
JP5766019B2 (ja) * 2011-05-11 2015-08-19 シャープ株式会社 2眼撮像装置、その制御方法、および、制御プログラムおよびコンピュータ読み取り可能な記録媒体
JP2014158062A (ja) * 2011-06-06 2014-08-28 Fujifilm Corp 立体動画像及び平面動画像を撮像する撮像素子及びこの撮像素子を搭載する撮像装置
US20170161557A9 (en) * 2011-07-13 2017-06-08 Sionyx, Inc. Biometric Imaging Devices and Associated Methods
JP2013046292A (ja) * 2011-08-25 2013-03-04 Panasonic Corp 複眼撮像装置
US8937646B1 (en) * 2011-10-05 2015-01-20 Amazon Technologies, Inc. Stereo imaging using disparate imaging devices
US20130162766A1 (en) * 2011-12-22 2013-06-27 2Dinto3D LLC Overlaying frames of a modified video stream produced from a source video stream onto the source video stream in a first output type format to generate a supplemental video stream used to produce an output video stream in a second output type format
TWI475875B (zh) * 2011-12-28 2015-03-01 Altek Corp 三維影像產生裝置
KR101710547B1 (ko) * 2012-01-10 2017-02-27 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR101797041B1 (ko) * 2012-01-17 2017-12-13 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
US9189484B1 (en) * 2012-02-23 2015-11-17 Amazon Technologies, Inc. Automatic transcoding of a file uploaded to a remote storage system
WO2013145888A1 (ja) * 2012-03-28 2013-10-03 富士フイルム株式会社 固体撮像素子、撮像装置、及び固体撮像素子の駆動方法
JP5993937B2 (ja) * 2012-03-30 2016-09-14 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP5941752B2 (ja) * 2012-05-22 2016-06-29 ブリヂストンスポーツ株式会社 解析システムおよび解析方法
RU2639686C2 (ru) * 2012-07-20 2017-12-21 Конинклейке Филипс Н.В. Метаданные для фильтрации глубины
JP2014027549A (ja) * 2012-07-27 2014-02-06 Funai Electric Co Ltd 録画装置
US20140111670A1 (en) * 2012-10-23 2014-04-24 Nvidia Corporation System and method for enhanced image capture
US9239627B2 (en) * 2012-11-07 2016-01-19 Panasonic Intellectual Property Corporation Of America SmartLight interaction system
TWI571827B (zh) * 2012-11-13 2017-02-21 財團法人資訊工業策進會 決定3d物件影像在3d環境影像中深度的電子裝置及其方法
CN102984456A (zh) * 2012-11-20 2013-03-20 东莞宇龙通信科技有限公司 移动终端和移动终端拍照的控制方法
JP2014123896A (ja) * 2012-12-21 2014-07-03 Olympus Imaging Corp 撮像装置、撮像方法、及びプログラム
KR101932539B1 (ko) * 2013-02-18 2018-12-27 한화테크윈 주식회사 동영상 데이터를 기록하는 방법, 및 이 방법을 채용한 촬영 장치
JP5825430B2 (ja) * 2013-02-27 2015-12-02 三菱レイヨン株式会社 ゴルフ用具フィッティングシステム、及びゴルフ用具フィッティングプログラム
US9654761B1 (en) * 2013-03-15 2017-05-16 Google Inc. Computer vision algorithm for capturing and refocusing imagery
US9564175B2 (en) * 2013-04-02 2017-02-07 International Business Machines Corporation Clustering crowdsourced videos by line-of-sight
US9699375B2 (en) * 2013-04-05 2017-07-04 Nokia Technology Oy Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
DE102013206911A1 (de) * 2013-04-17 2014-10-23 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur stereoskopischen Darstellung von Bilddaten
US9307112B2 (en) * 2013-05-31 2016-04-05 Apple Inc. Identifying dominant and non-dominant images in a burst mode capture
US9338440B2 (en) * 2013-06-17 2016-05-10 Microsoft Technology Licensing, Llc User interface for three-dimensional modeling
KR102080746B1 (ko) * 2013-07-12 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR102166331B1 (ko) * 2013-08-30 2020-10-15 삼성전자주식회사 촬영 후 빠른 재생을 구현하는 단말기 및 방법
US20150134651A1 (en) * 2013-11-12 2015-05-14 Fyusion, Inc. Multi-dimensional surround view based search
CN104796599B (zh) * 2014-01-17 2019-01-01 宏达国际电子股份有限公司 具有一开关按钮的电子装置及其控制方法
US10061111B2 (en) * 2014-01-17 2018-08-28 The Trustees Of Columbia University In The City Of New York Systems and methods for three dimensional imaging
US10033990B2 (en) * 2015-01-30 2018-07-24 Jerry Nims Digital multi-dimensional image photon platform system and methods of use
US20160292319A1 (en) * 2015-04-02 2016-10-06 Sealy Technology, Llc Body support customization by generation and analysis of a digital likeness

Also Published As

Publication number Publication date
RU2016129848A (ru) 2018-01-25
PH12016501225A1 (en) 2016-08-22
CA2935233A1 (en) 2015-07-30
CN106063248A (zh) 2016-10-26
JP2017509214A (ja) 2017-03-30
MX2016009710A (es) 2016-09-22
SG11201606006UA (en) 2016-08-30
BR112016016323A2 (pt) 2017-08-08
WO2015112517A1 (en) 2015-07-30
EP3100450A1 (en) 2016-12-07
AU2015209516A1 (en) 2016-07-07
US20150215530A1 (en) 2015-07-30
IL246346A0 (en) 2016-08-31
CL2016001892A1 (es) 2017-03-17

Similar Documents

Publication Publication Date Title
KR102445699B1 (ko) 전자 장치 및 그의 동작 방법
CN108781271B (zh) 用于提供图像服务的方法和装置
US10082886B2 (en) Automatic configuration of an input device based on contextual usage
US9690388B2 (en) Identification of a gesture
EP2701152B1 (en) Media object browsing in a collaborative window, mobile client editing, augmented reality rendering.
US11704016B2 (en) Techniques for interacting with handheld devices
CN112243583B (zh) 多端点混合现实会议
JP2017204845A (ja) ビデオを動画と置き替える装置、プログラム及び方法
KR102114377B1 (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
US9742995B2 (en) Receiver-controlled panoramic view video share
EP3690738A1 (en) Distributing processing for imaging processing
CN106537413B (zh) 自动生成照片概要的系统和方法
CN111045511B (zh) 基于手势的操控方法及终端设备
WO2015153529A1 (en) Automated selective upload of images
WO2014094199A1 (en) Facial movement based avatar animation
EP2824905A1 (en) Group recording method, machine-readable storage medium, and electronic device
US10474324B2 (en) Uninterruptable overlay on a display
EP2712176B1 (en) Method and apparatus for photography
JP2019159261A (ja) 電子黒板、映像表示方法、プログラム
KR20160114126A (ko) 유니버설 캡처
US11451743B2 (en) Control of image output
US20170228930A1 (en) Method and apparatus for creating video based virtual reality
US20160360118A1 (en) Smartphone camera user interface
KR20240033226A (ko) 확장 현실 인터페이스들에 대한 원격 랜드마크 렌더링
KR20240054140A (ko) 전자 장치 및 전자 장치의 동작 방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid