KR20100051648A - 디지털 영상의 영역들을 조작하는 방법 - Google Patents

디지털 영상의 영역들을 조작하는 방법 Download PDF

Info

Publication number
KR20100051648A
KR20100051648A KR1020107002585A KR20107002585A KR20100051648A KR 20100051648 A KR20100051648 A KR 20100051648A KR 1020107002585 A KR1020107002585 A KR 1020107002585A KR 20107002585 A KR20107002585 A KR 20107002585A KR 20100051648 A KR20100051648 A KR 20100051648A
Authority
KR
South Korea
Prior art keywords
processing tool
tool
gesture
processing
area
Prior art date
Application number
KR1020107002585A
Other languages
English (en)
Inventor
샤임먼 바네르지
왈라스 크러커
에릭 베너
앤디 룽
Original Assignee
스마트 테크놀러지스 유엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스마트 테크놀러지스 유엘씨 filed Critical 스마트 테크놀러지스 유엘씨
Publication of KR20100051648A publication Critical patent/KR20100051648A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

디지털 영상을 영역들로 분할하는 방법은 디지털 영상 내의 에지 콘텐츠에 기초하여 잠재적인 영역 경계들을 식별하는 것을 포함한다. 디지털 영상은 잠재적인 영역 경계들 중 사용자가 선택한 것들에 기초한 영역들로 분할된다. 디지털 영상의 영역을 처리하는 방법은 영역을 특징짓는 제스처 데이터를 수신하는 것을 포함한다. 제스처 데이터와 연관된 프로세싱 툴이 자동으로 시작되고, 프로세싱 툴을 사용하여 영역이 처리된다.

Description

디지털 영상의 영역들을 조작하는 방법{METHOD FOR MANIPULATING REGIONS OF A DIGITAL IMAGE}
본 발명은 일반적으로 영상 처리(image processing)에 관한 것으로, 보다 상세하게는 디지털 영상의 영역들을 조작하기 위한 방법 및 장치에 관한 것이다.
뉴스룸(newsroom) 또는 기타 방송 환경에서, 종종 광고를 위해 또는 뉴스 방송, 스포츠 방송의 일부로서 다양한 공급원으로부터 취한 디지털 영상을 전송하는 것이 바람직하다. 이러한 전송된 디지털 영상이 개인용 컴퓨터, 컴퓨터 워크스테이션 등을 사용하여 인터넷으로부터 스크린 캡쳐(screen capture)한 월드 와이드 웹(WWW; World Wide Web) 페이지 또는 이의 일부를 포함하는 것이 점차 흔해지고 있다.
잘 알려져 있는 바와 같이, 웹 페이지는 종종 텍스트 열, 광고, 이미지, 하이퍼링크, 실시간 주식 시세 자막, 내장된 프로그램 등을 포함하는 여러 가지 시각적 및 기능적 요소를 포함한다. 텔레비전 스크린 상의 디스플레이를 위해 웹 페이지의 스크린 캡쳐한 영상을 방송하기를 원하는 경우에, 영상은 통상적으로 전송 전에 수동으로 편집된다. 이는 이야기의 내용과 관련 없는 영상의 영역들을 삭제하고 그리고/또는 전송되면 텔레비전 스크린 상에 보다 용이하게 읽혀질 수 있도록 영상의 영역들을 크기 조정(scale)하도록 행해진다. 예를 들어, 뉴스캐스터는 특정 웹 페이지 상의 특정 인용(quote)으로 텔레비전 시청자의 시선을 끌고 광고나 다른 관련 없는 항목은 삭제하기를 원할 수 있다.
웹 페이지의 영상 내의 영역들을 수동으로 식별하고 분리하고 조작하는 것은 시간 소모적인 일일 수 있다. 이 목적을 위해, 제작 직원은 통상적으로 (예를 들어, MicrosoftTM Paint와 같은) 영상 편집 애플리케이션의 일부로서 편집 툴 세트와 함께 패키징된 영상 크로핑 툴(cropping tool)을 채택한다. 영상 조작 중에, 영상 영역은 원래(original) 웹 페이지 영상으로부터 수동으로 복사되어 다른 영상 요소와 결합하기 위해 별도의 영상에 붙여진다. 최종 영상이 멋지고 유용하다는 것을 보장하기 위하여, 화소(pixel) 정확도로써 영상 영역들을 식별하고 분리하는 것이 유리하다. 그리 하기 위해 통상적으로 제작 직원은 순차적으로 영역들을 선택하고 줌인(zoom-in), 줌아웃(zoom-out), 크로핑 그리고 어쩌면 다른 디지털 영상 프로세싱 툴을 채용하여야 한다. 디지털 영상에서 각각의 선택된 영상 영역의 경계들을 식별하는데 포인터(즉, 마우스, 스타일러스 등)의 주의 깊은 제어가 필요하다.
영상을 크로핑하기 위한 기술들이 고려되어 왔다. 예를 들어, 코헨(Cohen) 등의 미국 특허 번호 제6,337,925호는 경계(border)에 의한 객체 경계의 마스킹(masking)을 돕기 위해 디지털 영상에서의 객체들의 경계들을 결정하기 위한 방법을 개시하고 있다. 사용자는 식별되어야 할 경계의 일부를 포함하는 디지털 영상의 관심 영역을 선택하여야 한다. 그러면, 경계 부분은 경계의 에지 구역의 위치, 방향 및 폭을 추정함으로써 모델링된다. 모델링된 경계 부분에 기초하여, 장면에서 전체 객체의 경계가 식별된다.
니콜라스(Nicolas) 등의 미국 특허 번호 제6,593,944호는 소형 화면을 갖는 전자 디바이스 상에서 사용자가 그 내용을 읽을 수 있도록 웹 페이지를 수정하기 위한 방법 및 전자 시스템을 개시하고 있다. 이 방법은, 웹 페이지가 프레임들로 분할되고, 프레임들이 소형 화면 상에 개별적으로 디스플레이될 수 있도록 웹 페이지를 정리한다고 상정한다. 각각의 프레임은 디스플레이의 전체 크기로 크기 조정된다.
상기 기재한 바와 같이 종종 전송 전에 디지털 영상을 조작하는 것이 필요하지만, 일부 경우에는 방송된 영상을 조작하기를 원하기도 한다. 예를 들어, 텔레비전 생방송 중에, 종종 해설자가 실시간 디스플레이 및 부가적인 조작을 위해 영상을 이용할 수 있게 하는 것이 바람직하다. 뉴스 방송 중에 강조를 제공하기 위하여, 해설자는 특정 인용을 포함하는 영상 영역을 스포트라이트(spotlight)하기를 원할 수 있다. 다른 예로서, 스포츠 방송 중에 해설자는 하키 게임에서 골이 득점되는 것을 나타내는 영상 영역을 둘러싼 다음, 그 영역에 대해 줌인하여 골 라인을 가로지르는 퍽을 보여주기를 원할 수 있다.
실시간 디지털 영상 처리를 달성하기 위하여, 해설자는 컴퓨터 워크스테이션을 직접, 또는 터치 시스템과 같은 일부 기타 사용자 인터페이스를 채용할 수 있다. 터치 시스템은 당해 기술 분야에 잘 알려져 있으며, 통상적으로 사용자 입력을 발생시키기 위하여 포인터를 사용하여 접촉이 이루어지는 터치 표면을 갖는 터치 스크린을 포함한다. 그러면 사용자 입력은 자동으로 하나 이상의 애플리케이션 프로그램을 실행하는 컴퓨터에 전달된다. 컴퓨터는 사용자 입력을 사용하여 터치 스크린 상에 제시되고 있는 영상을 업데이트하거나, 또는 예를 들어 마우스 및 키보드를 사용하여 동작되고 있는 것처럼 애플리케이션 프로그램을 통하여 기타 동작을 수행한다. 터치 표면과의 접촉을 식별하기 위해 다른 기술들을 이용하는 많은 유형의 터치 시스템이 존재한다. 이들 기술은 터치 표면과의 접촉을 식별하기 위해 예를 들어 아날로그 저항성, 표면 탄성파, 용량성, 적외선, 전자기, 레이저 기반 및 기계 비전 검출 구성을 포함한다.
영역 및 (몇몇 예를 들어, 줌인, 줌아웃, 스포트라이트, 하이라이트(highlight), 또는 크로핑과 같은) 프로세싱 툴을 선택하기 위하여, 해설자는 통상적으로 메뉴로부터 프로세싱 툴 애플리케이션을 미리 선택하며, 포인터를 잡고, 터치 스크린 상에 디스플레이된 영상에서 관심 있는 영역을 둘러싸는 경계를 그린다. 사용자 입력을 수신하는 컴퓨터 상에서 실행되는 프로세싱 툴 애플리케이션은 선택된 영상 영역에 대해 원하는 처리 동작을 수행하고, 터치 스크린 상에 제시된 영상을 업데이트한다. 대안으로서, 해설자는 먼저 디스플레이된 영상 내의 영역을 포인터로 선택한 다음, 메뉴로부터 원하는 프로세싱 툴 애플리케이션을 선택할 수 있다. 선택되면, 프로세싱 툴 애플리케이션은 선택된 영역에 대해 그의 처리 동작을 수행하고, 터치 스크린 상에 제시된 영상은 업데이트된다.
프로세싱 툴의 수동 선택과 영상 영역의 식별은 시간 소모적일 수 있는데, 특히 생방송에 관련하여 그러하다. 사용자가 먼저 영상 영역을 식별한 다음 특정 포인터 제스처(gesture)(예를 들어, 줌을 나타내는 위-오른쪽 움직임, 그리고 하이라이트를 나타내는 오른쪽-왼쪽 움직임)를 사용하여 특정 영상 프로세싱 툴을 선택할 수 있게 해주는 애플리케이션 프로그램에 의해 이러한 우려는 다소 해결된다. 다른 애플리케이션들은 다양한 기능을 수행하기 위해 특정 순서의 포인터 제스처들의 수신을 요구한다. 예를 들어, 비디오 게임 Black & White(Lionhead Studios에 의해 개발되고, Electronic Arts and Feral Interactive에 의해 공개됨)는 플레이어가 일련의 마우스 이동을 사용하여 형상을 형성함으로써 주문을 걸고 기적을 행할 수 있게 한다. 웹 브라우저 Opera는 작고 빠른 마우스 이동을 사용하는 영상 처리 동작과는 달리 사용자가 브라우징 제스처를 수행할 수 있게 한다.
포인터 세트 각각에 상이한 프로세싱 툴 애플리케이션을 할당하는 것이 공지되어 있다. 이러한 접근법을 이용하여, 선택한 포인터를 사용하여 입력이 생성되면, 그 포인터와 연관된 프로세싱 툴 애플리케이션이 자동으로 호출된다. 예를 들어, 사용자는 영상 영역을 식별하는데 줌 처리가 수행될 줌 포인터를 사용할 수 있다.
상기 기재한 바와 같이 전송 전후에 영상들을 조작하기 위한 기술들이 공지되어 있지만 개선이 바람직하다. 따라서, 본 발명의 목적은 디지털 영상을 개별 조작을 위한 영역들로 분할하고 디지털 영상 내의 영역에 대해 영상 처리 동작을 수행하기 위한 신규의 방법 및 장치를 제공하는 것이다.
하나의 양상에 따르면, 디지털 영상을 영역들로 분할하는 방법에 있어서,
디지털 영상 내의 에지 콘텐츠(edge content)에 기초하여 잠재적인 영역 경계들을 식별하고;
상기 식별된 잠재적인 영역 경계들 중 사용자가 선택한 것들에 기초하여 상기 디지털 영상을 영역들로 분할하는 것을 포함하는 디지털 영상의 영역 분할 방법이 제공된다.
하나의 실시예에서, 상기 잠재적인 영역 경계들은 상당한 양의 에지 콘텐츠를 갖는 상기 디지털 영상 내의 행(row)들과 열(column)들에 따른 위치에서 식별된다. 상기 식별하는 것은 상기 디지털 영상 내의 화소들의 각각의 행과 열에 대하여 화소 밝기 프로파일(intensity profile)을 계산하는 것을 포함한다. 인접한 화소 밝기 프로파일들 간의 차이가 임계 레벨을 초과하는 곳을 판정하도록 상기 화소 밝기 프로파일들 중 인접한 것들이 비교되며, 그리하여 상기 잠재적인 영역 경계들의 행과 열 위치를 확립한다.
다른 양상에 따르면, 디지털 영상의 영역을 처리하는 방법에 있어서,
영역을 특징짓는(characterize) 제스처 데이터를 수신하고,
상기 제스처 데이터와 연관된 프로세싱 툴을 자동으로 시작하고,
상기 프로세싱 툴을 사용하여 상기 영역을 처리하는 것을 포함하는 디지털 영상의 영역 처리 방법이 제공된다.
다른 양상에 따르면, 디지털 영상을 영역들로 분할하기 위한 컴퓨터 프로그램을 구현하는 컴퓨터 판독가능한 매체에 있어서, 상기 컴퓨터 프로그램은,
디지털 영상 내의 에지 콘텐츠에 기초하여 잠재적인 영역 경계들을 식별하는 컴퓨터 프로그램 코드; 및
상기 식별된 잠재적인 영역 경계들 중 사용자가 선택한 것들에 기초하여 상기 디지털 영상을 영역들로 분할하는 컴퓨터 프로그램 코드를 포함하는 것인, 컴퓨터 판독가능한 매체가 제공된다.
또 다른 양상에 따르면, 디지털 영상의 영역을 처리하기 위한 컴퓨터 프로그램을 구현하는 컴퓨터 판독가능한 매체에 있어서, 상기 컴퓨터 프로그램은,
영역을 특징짓는 제스처 데이터를 수신하는 컴퓨터 프로그램 코드;
상기 제스처 데이터와 연관된 프로세싱 툴을 자동으로 시작하는 컴퓨터 프로그램 코드; 및
상기 프로세싱 툴을 사용하여 상기 영역을 처리하는 컴퓨터 프로그램 코드를 포함하는 것인, 컴퓨터 판독가능한 매체가 제공된다.
다른 양상에 따르면, 상호작용형(interactive) 디스플레이 시스템에 있어서,
컴퓨터 생성 영상(computer-generated image)이 제시되는 터치 표면을 정의하는 터치 스크린;
상기 터치 표면 상의 포인터 접촉을 검출하고, 이에 응답하여 상기 컴퓨터 생성 영상의 영역을 특징짓는 제스처 데이터를 생성하는 센서 어셈블리; 및
상기 제스처 데이터를 수신하고, 상기 영역을 처리하기 위해 상기 제스처 데이터와 연관된 프로세싱 툴을 자동으로 시작하는 프로세싱 구조를 포함하는 상호작용형 디스플레이 시스템이 제공된다.
디지털 영상을 영역들로 분할하는 상기의 방법은 디지털 영상의 편집 동안 영상 영역들의 정확한 식별 및 조작을 제공하기 때문에 유리하다. 사용자는 미리 정의된 영역 경계들로부터 영상을 영역들로 나누도록 선택할 수 있고, 그리하여 반드시 수동으로 영상 영역들을 힘들여서 정의해야 할 필요가 없다. 이로서, 사용자가 영상 영역들을 정의하고 영상 영역들을 사용하여 영상을 편집하는데 소비되는 시간이, 특히 특정 유형의 콘텐츠(즉, 웹 페이지)를 갖는 디지털 영상의 경우, 상당히 감소된다.
디지털 영상의 영역을 처리하는 방법은, 특히 영상의 생방송 중에, 영상 영역들의 정확한 식별 및 처리를 제공하기 때문에 유리하다. 사용자는 단일 제스처로써 관심 있는 영역과, 영역을 처리하기 위한 프로세싱 툴을 둘 다 식별할 수 있다. 이로서, 사용자가 영상 영역을 식별하고 프로세싱 툴을 선택하는데 소비되는 시간이 상당히 감소된다.
이제 첨부 도면을 참조하여 실시예들을 보다 충분히 설명할 것이다.
도 1은 디지털 영상을 영역들로 나누기 위한 단계들을 도시하는 흐름도이다.
도 2는 디지털 영상 내의 잠재적인 영역 경계들의 식별 동안 수행되는 단계들을 도시하는 흐름도이다.
도 3은 웹 페이지의 캡쳐된 영상이다.
도 4는 계산된 열과 행 밝기 프로파일을 도시하는 도 3의 웹 페이지의 그레이스케일(grayscale) 영상이다.
도 5는 기준선의 위치를 식별하도록 임계화된(thresholded) 열과 행 밝기 프로파일을 도시하는 도 4의 그레이스케일 웹 페이지 영상이다.
도 6은 캡쳐된 웹 페이지 영상 위에 놓인 식별된 기준선들을 도시한다.
도 7은 기준선을 선택하고 조작하기 위한 단계들을 도시하는 흐름도이다.
도 8은 식별된 기준선들로부터 선택하기 위한 수직 스윕(sweep) 툴이 호출되는, 사용자 시점에서의 도 3의 캡쳐된 웹 페이지 영상을 도시한다.
도 9는 기준선을 선택하기 위한 수직 및 수평 스윕이 완료된 후의 도 8의 캡쳐된 웹 페이지 영상을 도시한다.
도 10은 영상 영역들의 일부 집합이 폐기된 후의 도 8의 캡쳐된 웹 페이지 영상을 도시한다.
도 11은 도 10의 웹 페이지 영상의 폐기되지 않은 영상 영역들의 크기를 조작하기 위한 자유도를 도시한다.
도 12는 완성된 단순화된 웹 페이지 영상을 형성하도록 조작되어 있는 도 10의 웹 페이지 영상의 폐기되지 않은 영상 영역들을 도시한다.
도 13은 터치 시스템의 정면도이다.
도 14는 터치 시스템을 사용하여 디지털 영상의 영역을 처리하기 위한 단계들을 도시하는 흐름도이다.
도 15a는 터치 시스템의 터치 표면 상에 그린 전반적으로 직사각형인 경계선에 의해 윤곽이 그려지는(delineated) 디지털 영상의 영역을 도시한다.
도 15b는 그린 직사각형 경계선과 연관된 줌 툴의 적용에 의해 확장된 도 15a의 디지털 영상의 윤곽이 그려진 영역을 도시한다.
도 16a는 터치 시스템의 터치 표면 상에 그린 전반적으로 원형인 경계선에 의해 윤곽이 그려지는 다른 디지털 영상의 영역을 도시한다.
도 16b는 그린 원형 경계선과 연관된 스포트라이트 툴의 적용에 의해 스포트라이트되어 있는 도 16a의 디지털 영상의 윤곽이 그려진 영역을 도시한다.
다음 설명에서, 디지털 영상을 영역들로 분할하고 디지털 영상의 영역을 처리하기 위한 방법, 장치, 및 컴퓨터 프로그램을 구현한 컴퓨터 판독가능한 매체가 개시된다. 본 방법 및 장치는 개인용 컴퓨터, 상호작용형 디스플레이 또는 터치 시스템, 예를 들어 디지털 카메라, 캠코더 또는 비디오 성능을 갖는 전자 디바이스와 같은 디지털 영상 또는 비디오 캡쳐 디바이스, 또는 기타 컴퓨팅 시스템 환경을 포함하지만 이에 한정되는 것은 아닌 프로세싱 유닛에 의해 실행되는 컴퓨터 실행가능한 명령을 포함하는 소프트웨어 애플리케이션으로 구현될 수 있다. 소프트웨어 애플리케이션은 단독형 디지털 영상 툴이나 내장된 기능으로서 실행될 수 있거나, 또는 이들 디지털 영상 애플리케이션에 향상된 기능성을 제공하도록 기타 이용 가능한 디지털 영상 애플리케이션에 통합될 수 있다. 소프트웨어 애플리케이션은 루틴, 프로그램, 객체 컴포넌트, 데이터 구조 등을 포함하는 프로그램 모듈을 포함할 수 있으며, 컴퓨터 판독가능한 매체 상에 저장된 컴퓨터 판독가능한 프로그램 코드로서 구현될 수 있다. 컴퓨터 판독가능한 매체는 나중에 컴퓨터 시스템에 의해 판독될 수 있는 데이터를 저장할 수 있는 임의의 데이터 저장 디바이스이다. 컴퓨터 판독가능한 매체의 예로는 예를 들어 판독 전용 메모리, 랜덤 액세스 메모리, CD-ROM, 자기 테이프 및 광학 데이터 저장 디바이스를 포함한다. 컴퓨터 판독가능한 프로그램 코드는 또한 연결된 컴퓨터 시스템을 포함하는 네트워크를 통해 분산될 수 있으며, 그리하여 컴퓨터 판독가능한 프로그램 코드가 분산 방식으로 저장되고 실행될 수 있다. 이제 도 1 내지 도 15를 참조하여 실시예들을 설명할 것이다.
이제 도 1을 참조하면, 디지털 영상을 영역들로 분할하는 방법이 예시되어 있다. 방법 동안, 컴퓨터 스크린샷(screenshot)으로서 또는 (예를 들어 디지털 카메라와 같은) 영상 캡쳐 디바이스를 사용하여 디지털 영상이 캡쳐된다(단계 100). 그 다음, 디지털 영상 내의 잠재적인 또는 후보 영역 경계들이 기준선으로서 식별되고(단계 200), 사용자가 선택한 기준선들이 판정된다(단계 300). 선택된 기준선들에 기초하여, 캡쳐된 영상은 사용자에 의한 부가적인 조작을 위한 영역들로 분할된다(단계 400).
잠재적인 영역 경계들을 식별하기 위한 단계들(단계 200)이 도 2에 예시되어 있다. 먼저, 캡쳐된 영상으로부터 화소 휘도(pixel luminance) 채널을 추출함으로써 그레이스케일 영상이 생성된다(단계 210). 그 다음, 그레이스케일 영상의 각각의 행과 열에 대하여 밝기 프로파일이 계산된다(단계 212). 밝기 프로파일의 계산 동안, 그레이스케일 영상의 각각의 행에서의 화소들의 휘도 값들이 평균화됨으로써, 각각의 행에 대하여 행 내의 모든 화소들의 평균 휘도인 밝기 프로파일을 산출한다. 그레이스케일 영상의 열들에 대하여 똑같은 일이 수행된다.
밝기 프로파일의 계산 후에, 행에 대한 밝기 프로파일은, 다음 의사 코드에 상술되어 있는 바와 같이, 그레이스케일 영상 내의 유효 수평 에지(significant horizontal edge)의 위치를 식별하도록 임계화된다:
Figure pct00001
0.125 밝기 단위의 고정된 임계값이 적합한 것으로 발견되었다. 물론, 적응적인 임계값 또는 그레이스케일 영상 내의 밝기 변동성(intensity volatility)(즉, 예를 들어 밝기의 표준 편차)의 측정에 기초하여 얻은 것이 채용될 수 있다.
그 다음, 행에 대하여 상기 기재한 바와 유사한 방식으로 열에 대한 밝기 프로파일이 임계화된다.
밝기 프로파일이 임계화됨으로써, "1"의 표시를 갖는 밝기 프로파일의 위치는 캡쳐된 영상 내의 기준선 또는 영역 경계의 위치에 대응한다. 따라서, 수평 기준선은 캡쳐된 영상에서 밝기 프로파일 = 1을 갖는 행에서 식별되고(단계 214), 수직 기준선은 캡쳐된 영상에서 밝기 프로파일 = 1을 갖는 열에서 식별된다(단계 216). 각각의 수평 기준선은 캡쳐된 영상의 전체 폭에 걸치고, 각각의 수직 기준선은 캡쳐된 영상의 전체 높이에 걸친다.
도 3 내지 도 6은 상기 기재한 단계들에 따른 웹 페이지 영상의 처리를 도시한다. 보다 구체적으로, 도 3은 사용자에게 보여지는 대로의 캡쳐된 웹 페이지 영상을 도시한다. 도 4는 대응하는 그레이스케일 영상 및 계산된 열과 행 밝기 프로파일을 도시한다. 도 4에서는 밝기 프로파일을 볼 수 있지만, 이는 이해를 쉽게 하기 위한 것임을 이해할 것이다. 밝기 프로파일이 반드시 디스플레이되는 것은 아니다. 도 5는 수직 및 수평 기준선을 식별하도록 임계화되어 있는 그레이스케일 영상의 열과 행 밝기 프로파일을 도시한다. 도 6은 캡쳐된 웹 페이지 영상 위에 놓인 기준선들을 도시한다. 도 6에서는 기준선들이 보이지만, 이는 이해를 쉽게 하기 위한 것임을 이해할 것이다. 아래에 보다 상세하게 설명되는 바와 같이, 이 실시예에 따라, 반드시 이 시점에서 사용자가 동시에 스크린 상에 디스플레이된 그것들을 보는 것은 아니다.
수평 및 수직 기준선들이 식별되면, 사용자는 캡쳐된 영상을 개별 조작을 위한 영역들로 분할하기 위하여 기준선을 선택할 수 있다(단계 300). 기준선 선택 동안 수행되는 단계들은 아래에 기재되는 바와 같이 도 7에 예시되어 있다.
수직 기준선을 보고 선택하기 위하여, 수직 스윕 툴이 호출된다. 호출되면, 사용자는 포인터를 이용하여 캡쳐된 영상의 왼쪽→오른쪽 스윕을 시작한다(단계 310). 왼쪽→오른쪽 스윕 동안, 수직 기준선들은 포인터와 "마주칠 때" 사용자에게 보이게 된다(단계 312). 보다 구체적으로, 수직 기준선은 포인터의 x 위치가 그 수직 기준선의 x 좌표와 일치하거나 적어도 그 수직 기준선의 x 좌표의 미리 결정된 간격 내에 있다고 판정되는 경우 디스플레이 상에 나타난다. 사용자가 계속해서 포인터를 수직 기준선의 x 좌표를 지나 스윕함에 따라 그 수직 기준선은 보이는 채로 있으며, 포인터의 실제 x 좌표가 그 수직 기준선 x 좌표를 임계 양(즉, 예를 들어 10개 화소)만큼 초과하는 경우 사라진다. 이러한 기능은 수직 기준선의 사용자 선택을 용이하게 한다. 또한, 디스플레이가 포인터 아이콘(즉, 화살표)을 포함하는 경우에, 화살표는 수직 기준선을 "스틱(stick)"한다. 이러한 "스틱" 효과는 또한 사용자가 수직 기준선을 식별하고 선택하는 것을 돕는다. 보이는 기준선이 선택되어야 할 경우, 사용자는 일시적으로 보이게 된 수직 기준선을 선택하도록 스윕을 일시적으로 멈추고 마우스 버튼을 간단히 클릭하기만 하면 된다.
사용자가 수직 기준선을 선택한 후에(단계 314), 수직 기준선은 "ON"으로 토글링되고, 포인터의 위치에 관계없이 영구적으로 보이는 채로 유지된다(단계 316). 사용자가 추가적인 수직 기준선을 선택하도록 왼쪽→오른쪽 스윕을 계속하기를 원하는 경우(단계 318), 방법은 단계 312로부터 계속된다. 수직 스윕 툴이 선택되어 있는 동안, 사용자는 앞에서 놓쳤던 부가의 수직 기준선을 선택하도록 다시 돌아가 재스윕할 수 있다.
수평 기준선을 보고 선택하기 위하여, 사용자는 수평 스윕 툴을 호출하고, 포인터를 이용하여 캡쳐된 영상의 위→아래 스윕을 시작함으로써(단계 320) 수평 기준선들과 마주치며 그 중에서 선택한다. 위→아래 스윕 및 수평 기준선의 선택은 수직 기준선에 관련하여 상기 기재한 바와 유사한 방식으로 수행된다. 사용자가 위→아래 스윕을 완료하면, 각각의 선택된 수평 기준선은 "ON"으로 토글링되고, 포인터의 위치에 관계없이 보이는 채로 유지된다. 수평 스윕 툴이 선택되어 있는 동안, 사용자는 앞에서 놓쳤던 부가의 수평 기준선을 선택하도록 다시 돌아가 재스윕할 수 있다.
사용자가 원한다면, 선택된 기준선은 선택 해제될 수 있고, 그리하여 다시 보이지 않게 되도록 "OFF"로 토글링될 수 있다.
수평 및 수직 기준선이 선택되면, 캡쳐된 영상은 선택된 기준선들에 의해 윤곽이 그려지는 영역들의 그리드(grid)로 분할된다(단계 330). 그러면, 사용자는 원하는 바에 따라 그들 위치를 미세 조정하도록 선택된 기준선들을 조정할 수 있다(단계 332). 예를 들어, 도 6의 수평 기준선 중 하나는 헤드라인 "Microsoft Releases Windows CE 6 beta"를 통해 지나간다. 이 수평 기준선이 선택되어 조정되지 않았다면, 헤드라인은 바람직하지 못하게 크로핑되었을 것이다. 따라서, 사용자는 타일링된 윈도우를 다시 크기 조정하는 것처럼 선택된 기준선을 조정한다. 도 9 내지 도 12는 헤드라인이 바람직하게 못하게 크로핑되지 않도록 보장하기 위해 조정되어 있는 선택된 기준선을 도시한다. 기준선들은 수평 및 수직 기준선들의 교차점들에 기초한 세그먼트들로 자동으로 분할되며, 사용자는 기준선들의 개별 세그먼트들을 선택적으로 조정함으로써 개별 영상 영역들의 경계들을 조정할 수 있다.
캡쳐된 영상이 조정된 기준선들에 의해 원하는 영상 영역들로 분할되면, 사용자는 부가적인 조작을 위한 개별 영상 영역들을 선택할 수 있다. 예를 들어, 사용자는 일부 영상 영역들을 폐기하고 다른 영상 영역들을 옮기고 그리고/또는 다시 크기 조정하기를 원할 수 있다. 영상 영역은, 예를 들어 포인터를 사용하여 영상 영역을 선택하고 키보드 상의 "삭제" 키를 누름으로써 폐기될 수 있다. 선택된 영상 영역들이 폐기되면, 포인터로 수평 또는 수직 영역 경계를 선택하고, 빈 공간(즉, 폐기된 영상 영역이 일단 위치되었던 곳)을 통하여 다음 폐기되지 않은 영상 영역의 가장 가까운 경계로 포인터를 사용해 그것을 드래그함으로써, 나머지 영상 영역들의 크기 조정이 수행될 수 있다. 선택된 경계가 다음 폐기되지 않은 영상 영역과 중첩하도록 드래그되는 경우, 이는 그 폐기되지 않은 영상 영역의 가장 가까운 경계에 맞추어 정렬하도록 "스내핑(snapping)"된다. 이로서, 영상 영역은 다음 폐기되지 않은 영상 영역에 맞추어 깔끔하게 정렬되게 된다. 수직 영상 영역 경계의 경우, "스내핑" 기능은 드래그되고 있는 동안 선택된 영상 영역의 x 좌표가 다음 폐기되지 않은 영상 영역의 마주하는 영상 영역 경계의 x 좌표와 동일하거나 그보다 커지는 때를 검출함으로써 용이해진다. 해제시, 선택된 영상 영역 경계의 x 좌표는 마주하는 영상 영역 경계의 x 좌표와 동일하도록 재설정된다. 수평 경계에 대하여 유사한 방식으로 y 좌표를 검출하고 재설정함으로써 똑같은 일이 행해진다.
가장 가까운 경계에 맞추어 정렬하도록 선택된 영상 영역 경계의 "스내핑"시, 지금 인접한 영상 영역들은 원하는 바에 따라 단일 영역으로서 병합될 수 있다. 대안으로서, 정렬된 경계들 자체가 단일 경계로서 병합될 수 있으며, 그리하여 단일 경계의 조정으로써 2개의 인접한 영상 영역들의 하나를 확장시키고 다른 하나를 줄인다.
도 8 내지 도 12는 영상 영역들을 식별하도록 기준선들 세트로부터 사용자가 선택하는 경우 상기 단계들에 따른 도 3의 캡쳐된 웹 페이지의 처리를 도시한다. 보다 구체적으로, 도 8은 기준선을 선택하기 위한 수직 스윕 툴이 호출되어 있는, 사용자 시점에서의 웹 페이지 영상을 도시한다. 도 9는 기준선을 선택하기 위한 수직 및 수평 스윕이 완료된 후의 웹 페이지 영상을 도시한다. 도 10은 사용자가 영상 영역들의 일부 집합을 폐기한 후의 웹 페이지 영상을 도시한다. 도 11은 그들 각각의 크기를 조정하도록 조작되어 있는 도 10의 웹 페이지 영상의 폐기되지 않은 영상 영역들을 도시한다.
도 12는 방송에 적합하도록 완성된 단순화된 웹 페이지 영상을 형성하도록 상기 기재한 바와 같이 조작되어 있는 도 10의 웹 페이지 영상의 폐기되지 않은 영상 영역들을 도시한다.
상기 기재한 바와 같이 종종 전송 전에 디지털 영상을 조작하는 것이 필요하지만, 일부 경우에는 예를 들어 텔레비전 생방송 중에 디지털 영상의 영역을 스포트라이트하거나 줌인하거나 아니면 조작하기를 원하기도 한다. 텔레비전 생방송 중의 디지털 영상의 조작은 도 13에 도시된 바와 같은 터치 시스템(50) 또는 상호작용형 디스플레이를 사용하여 수행될 수 있다. 터치 시스템은 본 출원의 양수인, SMART Technologies Inc.에 양도된 미국 특허 출원 번호 제11/331,448호에 기재된 바와 유사하며, 이의 내용은 그 전체가 참조에 의해 여기에 포함된다. 볼 수 있듯이, 터치 시스템(50)은 포인터(70)를 사용하여 포인터 접촉이 이루어지게 될 관심 영역을 정의하는 터치 표면(54)를 갖는 터치 스크린(52)을 포함한다. 이 실시예에서, 포인터(70)는 바디(72) 및 팁(74)을 가지며, 터치 스크린(52)은 예를 들어 LCD, 플라즈마, HDTV 또는 기타 텔레비전 디스플레이 디바이스와 같은 평판 패널 디스플레이 디바이스의 전반적으로 평면인 표면이다. 센서 어셈블리(56)는 터치 스크린(52)의 일측을 따라 연장된다. 센서 어셈블리(56)는 터치 스크린(52)의 일측 에지에 고정된 발렌스(valence)(58)를 포함한다. 디지털 카메라(60)는 발렌스(58)의 인접한 대향하는 단부들에 위치되어 있다. 디지털 카메라(60)의 시야는 터치 표면(54) 상에서 이루어지는 포인터 접촉이 시각적으로 검출될 수 있도록 터치 표면(54)의 전체 활성 영역에 걸쳐 중첩된다.
적외선(IR) 수신기(62)는 연관된 디지털 카메라(60)에 인접하게 위치되어 있으며 이와 통신한다. 각각의 IR 수신기(62)는 가전 제품에서 찾아볼 수 있는 것들과 유사하며, 이득 제어 증폭기에 연결된 렌즈형 IR 검출기를 포함한다. 디지털 카메라(60)는 컴퓨터(64) 또는 기타 적합한 프로세싱 디바이스에 USB 허브(65) 및 예를 들어 USB-2와 같은 고속 데이터 버스(66)를 통하여 연결된다. 컴퓨터(64)는 하나 이상의 애플리케이션 프로그램을 실행하는 프로세서 및 메모리를 포함하며, 터치 스크린(52) 상에 보이게 되는 디스플레이 출력을 제공한다. 터치 스크린(52), 컴퓨터(64), 및 디스플레이 디바이스는 폐쇄 루프를 형성하고, 그리하여 터치 스크린(52)과의 포인터 접촉은 컴퓨터(64)에 의해 실행되는 애플리케이션 프로그램의 실행을 제어하는데 사용되는 제스처로서 그리고/또는 글쓰기나 그림으로서 기록될 수 있다.
도 14는 도 13의 터치 시스템을 이용하여 텔레비전 생방송 중에 디지털 영상의 식별된 영역을 선택하고 처리하기 위한 단계들을 도시하는 흐름도이다. 제스처의 형상을 프로세싱 툴과 연관시킨, 소프트웨어 액세스가능한 프로세싱 툴 테이블 또는 테이블들이 컴퓨터(64)의 메모리에 저장된다(단계 600). 프로세싱 툴 테이블의 개념 내용의 예가 아래의 표 1에 예시되어 있다.
제스처 프로세싱 툴
Figure pct00002
스포트라이트 (
Figure pct00003
형상의 제스처의 크기 및 위치에 의해 특징지어지는 영역 스포트라이트)
Figure pct00004
줌 (
Figure pct00005
형상의 제스처의 크기 및 위치에 의해 특징지어지는 영역에 대한 줌인/줌아웃)
표 1에서, 타원 형상의 제스처는 그의 둘레에 비해 식별된 영역을 밝게 하는 "스포트라이트" 프로세싱 툴과 연관된다. 마찬가지로, 직사각형 형상의 제스처는 "줌" 프로세싱 툴과 연관된다.
사용자가 디스플레이된 디지털 영상의 영역을 식별하도록 터치 스크린(52) 상에서 제스처하면, 제스처 데이터가 컴퓨터(64)에 의해 수신되고(단계 700), 수신된 제스처 데이터에 기초하여 제스처 잉크가 공지된 방식으로 디스플레이 디바이스 상에 디스플레이된다. 제스처 데이터는 포인터 접촉에 기초한 샘플링된 좌표들 세트이며, 이들은 합쳐서 타원, 직사각형, 삼각형 등과 같은 닫힌 도형을 형성한다. 개별 샘플링된 좌표들은 포인터가 터치 표면(54)과 접촉한 채 유지되는 동안에 함께 수신된 경우 일 세트의 일부인 것으로 간주된다. 다른 유사한 기준이 사용될 수 있다. 이 실시예에서, 제스처 데이터는 영역의 형상, 크기 및 위치를 정의하기 때문에 식별된 영역을 직접 특징짓는다.
제스처 데이터가 수신되면, 컴퓨터(64)에 의해 형상 인식 알고리즘을 사용하여 제스처의 형상이 판정된다(단계 800). 상기 기재한 바와 같이, 제스처 형상은 닫힌 도형(즉, 직사각형, 타원, 삼각형 등 중 하나)으로 간주된다. 제스처 데이터가 닫힌 도형을 정의하는 것으로 타당하게 간주될 수 없는 경우(즉, 직선이나 약간만 굽혀진 선)를 다루도록 컴퓨터(64)에 의해 오류 취급 알고리즘(error handling algorithm)이 채용될 수 있다. 제스터 데이터가 본래는 닫힌 도형을 정의하고 있지 않아도 닫힌 도형을 나타내는 것으로 타당하게 간주될 수 있는 경우를 다루도록 컴퓨터(64)에 의해 기타 전처리(pre-processing) 알고리즘이 채용될 수 있다. 예를 들어, "C" 형상 또는 소용돌이 무늬는 각각 모호하게 그려진 타원으로서 간주될 수 있다. 사용자 관점에서, 이러한 부분적으로 닫힌 도형을 다룰 수 있도록 형상 인식 알고리즘이 견고한 것이 유리하다. 이를 달성하기 위하여, 전처리 알고리즘은 샘플링된 점들 세트를 처리하고 어쩌면 그 세트에 추가적인 점들을 추가하여 윤곽이 그려져 있는 영역을 완전히 둘러싸는 닫힌 도형이 되도록 한다.
형상 인식 알고리즘은 당해 기술 분야에 공지되어 있으며, 샘플링된 좌표들 세트의 특성과, 형상이나 형상 탬플릿(template)을 각각 정의하는 미리 정의된 특성을 비교하는 것들을 포함한다. 예를 들어, 좌표들 세트가 소정의 형상 탬플릿과 93% 일치하지만 또 다른 형상 탬플릿과는 22%만 일치하는 경우, 일치하는 제스처 탬플릿으로서 93% 일치하는 형상 탬플릿이 선택됨으로써 제스처 형상을 판정한다.
제스처 형상이 판정되면, 디스플레이 디바이스 상의 원래 제스처 잉크는 삭제되고, 사용자의 원래 제스처의 크기 및 위치에 대응하도록 크기 조정되고 위치된, 판정된 제스처 형상에 대응하는 제스처 잉크로 교체된다. 제스처의 크기 및 위치는 제스처의 중심과 그의 경계선을 판정하도록 기하학적 분석을 사용하여 샘플링된 점들 세트를 처리함으로써 판정된다.
그 다음, 제스처 형상은 연관된 프로세싱 툴을 식별하기 위해 컴퓨터(64)에 의해 프로세싱 툴 테이블의 인덱스로의 키로서 사용된다. 예를 들어, 표 1에서, 제스처 형상이 타원 "O"인 것으로 판정된다면, 스포트라이트 프로세싱 툴이 식별된다.
그러면, 식별된 프로세싱 툴이 자동으로 시작되고, 디지털 영상과 제스처 데이터는 둘 다 영역의 처리를 위해 프로세싱 툴에 입력 인자(input argument)로서 제공된다(단계 1000). 프로세싱 툴 입력 인자는 제스처 데이터 자체, 또는 대응하는 크기 및 위치 정보를 갖는 판정된 제스처 형상을 포함할 수 있다. 프로세싱 툴 테이블에서 제스처 형상이 연관되어 있는 프로세싱 툴에 따라, 처리는 자동으로 일어날 수 있으며, 또는 대안으로서 사용자에게 처리 속성을 더 지정하기 위한 옵션이 주어질 수 있다. 예를 들어, 프로세싱 툴이 줌 툴인 경우에는, 사용자에게 줌인, 줌아웃, 또는 아무 것도 행하지 않을 옵션이 주어진다. 또한, 사용자는 그려진 것과 동일한 형상과 크기를 갖지만 상이한 위치에 있는 영역을 처리하도록 줌 툴을 옮길 수 있다. 사용되면, 프로세싱 툴은 제스처 잉크에 의해 윤곽이 그려진 영역 밖의 터치 표면(54)을 접촉하거나 마우스를 클릭함으로써 비활성화되거나, 아니면 종료된다.
터치 시스템(50)을 사용하여 그린 전반적으로 직사각형인 경계선에 의해 윤곽이 그려진 디지털 영상(80)의 영역(82)이 도 15a에 도시되어 있다. 제스처된 직사각형 경계선과 연관된 줌 프로세싱 툴의 적용에 의해 확장된 디지털 영상(80)의 식별된 영역(82)이 도 15b에 도시되어 있다. 도 15a의 원래 제스처 잉크는 자동으로 삭제되고, 도 15b에 도시된 바와 같이, 줌 프로세싱 툴에 의해 확장된 직사각형 영역(82)의 경계를 식별하는 제스처 잉크로 교체된다.
터치 시스템(50)을 사용하여 사용자가 그린 원형/타원형 경계선에 의해 윤곽이 그려진 상이한 디지털 영상(90)의 영역(92)이 도 16a에 도시되어 있다. 제스처된 원형/타원형 경계선과 연관된 스포트라이트 툴의 적용에 의해 스포트라이트된 디지털 영상(90)의 식별된 영역(92)이 도 16b에 도시되어 있다. 도 16a의 원래 제스처 잉크는 자동으로 삭제되고, 도 16b에 도시된 바와 같이, 스포트라이트 프로세싱 툴에 의해 스포트라이트된 원형/타원형 영역(92)의 경계를 식별하는 제스처 잉크로 교체된다.
디지털 영상의 식별된 영역을 처리하는 신규 방법이 상기에 기재되었지만, 수많은 대안들이 이용될 수 있다는 것을 이해할 것이다. 예를 들어, 삼각형 또는 사다리꼴과 같은 다른 도형 형상이 각각의 프로세싱 툴과 연관되어 프로세싱 툴 테이블에 포함될 수 있다.
앞서 기재한 프로세싱 툴 테이블에 저장되어 있는 제스처 형상은 영역을 직접 특징짓도록 돕는 제스처 형상이거나(즉, 그의 크기, 형상 및 위치를 명확하게 식별함), 또는 영역을 명확하게 특징짓도록 구현 소프트웨어에 의해 타당하게 가정될 수 있다는 것을 이해할 것이다. 예를 들어, 타원형은 본래 영역을 둘러쌈으로서 영역을 완전하게 특징짓는 반면에, "C" 형상은 본래 영역을 특징짓지는 않지만 불완전하게 그려진 유사한 크기의 타원인 것으로 구현 소프트웨어에 의해 간주될 수 있다. 그러면, 구현 소프트웨어는 "C" 형상을 유사한 크기의 타원으로 둘러싸인 영역을 특징짓는 것으로 간주할 것이고, "C" 및 타원은 프로세싱 툴 선택의 목적에 대하여 동일한 제스처일 것이고, 그에 따라 동일한 프로세싱 툴이 선택될 것이다.
다른 실시예에 따르면, "C" 및 타원 "O"가 둘 다 동일한 영역을 특징짓는 동시에(형상, 크기 및 위치에 관련하여) 각각 영역을 처리하기 위한 상이한 프로세싱 툴의 선택을 야기하도록 프로세싱 툴 테이블이 구성된다. 예를 들어, "C" 형상을 그리면 타원형 영역을 스포트라이트시킬 것이며, 실제 타원형 "O" 형상을 그리면 타원형 영역을 크로핑시킬 것이다. 영역을 직접 특징짓지는 않지만 각각 닫힌 도면과 연관되어 그의 크기 및 위치를 지정할 수 있는 다른 제스처들이 지원된다. 예를 들어, 이 실시예에서 "+" 부호 제스처는 영역을 둘러싸는 실제 직사각형 제스터인 것처럼 유사한 크기의 직사각형 영역을 특징짓지만, 직사각형을 그리는 것과는 상이한 프로세싱 툴의 선택을 야기한다. "+" 부호 제스처는 다른 경우에 유사한 크기의 타원형 영역을 특징지을 수 있다. 따라서, 특정 영역의 형상, 크기 및 위치가 여러 가지 상이한 제스처 형상을 사용하여 특징지어질 수 있으며, 그에 의해 실제 제스처 형상이 프로세싱 툴 테이블의 인덱스로의 키라는 것을 알 수 있다. 이러한 대안의 프로세싱 테이블의 개념 내용의 예가 아래의 표 2에 예시되어 있다.
제스처 영역 형상, 크기 및 위치 처리 동작
Figure pct00006
Figure pct00007
제스처의 크기 및 위치에 의해 정의된
Figure pct00008
형상의 영역
영역 크로핑
Figure pct00009
Figure pct00010
제스처의 크기 및 위치에 의해 정의된
Figure pct00011
형상의 영역
영역의 줌인/줌아웃
Figure pct00012
Figure pct00013
제스처의 크기 및 위치에 의해 정의된
Figure pct00014
형상의 영역
영역의 줌인/줌아웃
Figure pct00015
Figure pct00016
제스처의 크기 및 위치에 의해 정의된
Figure pct00017
형상의 영역
영역 하이라이트
표 2의 내용에 따르면, 사용자에 의해 "+"가 그려지는 경우, 이는 그린 "+"에 대하여 크기 및 위치가 대응하는 "O" 또는 타원형 형상의 영역이 크로핑 프로세싱 툴을 사용하여 처리될 것임을 의미한다. 그러나, 사용자에 의해 "O"가 그려지는 경우, 이는 그린 "O"에 대하여 크기 및 위치가 대응하는 동일한 타원형 형상의 영역이 처리될 것이지만, 이번에는 줌인/줌아웃 프로세싱 툴을 사용할 것임을 의미한다.
다른 실시예에 따르면, 점선을 사용하여 그린 제스처 형상은 실선을 사용하여 그린 동일한 크기 및 위치의 제스처 형상과는 상이한 프로세싱 툴을 호출한다. 이러한 대안의 프로세싱 테이블의 개념 내용의 예가 아래의 표 3에 예시되어 있다.
제스처 영역 형상, 크기 및 위치 처리 동작
점선
Figure pct00018
점선
Figure pct00019
제스처의 크기 및 위치에 의해 정의된
Figure pct00020
형상의 영역
영역 크로핑
실선
Figure pct00021
실선 제스처의 크기 및 위치에 의해 정의된
Figure pct00023
형상의 영역
영역의 줌인/줌아웃
실선
Figure pct00024
실선
Figure pct00025
제스처의 크기 및 위치에 의해 정의된
Figure pct00026
형상의 영역
영역 하이라이트
점선
Figure pct00027
점선
Figure pct00028
제스처의 크기 및 위치에 의해 정의된
Figure pct00029
형상의 영역
영역 크로핑
실선
Figure pct00030
실선
Figure pct00031
제스처의 크기 및 위치에 의해 정의된
Figure pct00032
형상의 영역
영역의 줌인/줌아웃
실선
Figure pct00033
실선
Figure pct00034
제스처의 크기 및 위치에 의해 정의된
Figure pct00035
형상의 영역
영역 하이라이트
대안으로서, 점선은 영역 형상, 크기 및 위치 간을 구별하지만 동일한 툴을 호출한다. 예를 들어, 점선의 "+"은 원형을 식별하고 크로핑 처리 동작에 사용되는 반면에, 실선의 "+"은 사각형을 식별하고 크로핑 처리 동작에 사용된다. 다른 대안들이 당해 기술 분야에서의 숙련자에게 명백할 것이다. 예를 들어, 일부 실시예에서, 판정된 제스처 형상은 샘플링된 점들의 배향에 따라 달라질 수 있다.
다른 실시예에 따르면, 터치 스크린 상에 제스처 형상을 그리고 대응하는 프로세싱 툴/애플리케이션을 시작하는데 특수 제스처 펜이 사용될 수 있으며, 간단하게 그리는데 다른 펜들이 사용된다.
디지털 영상의 영역을 처리하기 위한 상기 기재한 방법은 유리하게 사용자가 단일 제스처로써 영역과 영역에 대해 동작시키기 위한 툴을 둘 다 선택할 수 있게 해준다는 것을 알 수 있다.
상기에 특정 실시예들이 설명되었지만, 당해 기술 분야에서의 숙련자들은 첨부된 청구범위에 의해 정의되는 본 발명의 사상 및 범위로부터 벗어나지 않고서 변형 및 수정이 이루어질 수 있다는 것을 알 것이다.
50: 터치 시스템
60: 디지털 카메라
62: IR 수신기
64: 컴퓨터
70: 포인터

Claims (35)

  1. 디지털 영상을 영역(region)들로 분할하는 방법에 있어서,
    디지털 영상 내의 에지 콘텐츠(edge content)에 기초하여 잠재적인 영역 경계들을 식별하고;
    상기 식별된 잠재적인 영역 경계들 중 사용자가 선택한 경계들에 기초하여 상기 디지털 영상을 영역들로 분할하는 것을 포함하는 디지털 영상의 영역 분할 방법.
  2. 청구항 1에 있어서,
    상기 잠재적인 영역 경계들은 상당한 양의 에지 콘텐츠를 갖는 상기 디지털 영상 내의 행들과 열들에 따른 위치에서 식별되는 것인 디지털 영상의 영역 분할 방법.
  3. 청구항 2에 있어서,
    상기 식별하는 것은,
    상기 디지털 영상 내의 화소들의 각각의 행과 열에 대하여 화소 밝기 프로파일들을 계산하고;
    상기 화소 밝기 프로파일들 중 인접한 프로파일들을 비교하여 인접한 화소 밝기 프로파일들 간의 차이가 임계 레벨을 초과하는 곳을 판정함으로써 상기 잠재적인 영역 경계들의 행과 열 위치들을 확립하는 것을 포함하는 것인 디지털 영상의 영역 분할 방법.
  4. 청구항 3에 있어서,
    상기 임계 레벨은 고정되는 것인 디지털 영상의 영역 분할 방법.
  5. 청구항 4에 있어서,
    상기 임계 레벨은 0.125 밝기 단위인 것인 디지털 영상의 영역 분할 방법.
  6. 청구항 3에 있어서,
    상기 임계 레벨은 상기 디지털 영상 내의 밝기 변동성의 측정에 기초하여 계산되는 것인 디지털 영상의 영역 분할 방법.
  7. 청구항 6에 있어서,
    상기 밝기 변동성은 상기 디지털 영상 내의 화소 밝기 값들의 표준 편차인 것인 디지털 영상의 영역 분할 방법.
  8. 청구항 1에 있어서,
    상기 영역들의 부분집합의 선택을 수신하고;
    상기 디지털 영상으로부터 선택되지 않은 영역들의 내용을 삭제하는 것을 더 포함하는 디지털 영상의 영역 분할 방법.
  9. 청구항 8에 있어서,
    사용자 명령에 응답하여 선택된 영역들을 크기 조정(scaling)하는 것을 더 포함하는 디지털 영상의 영역 분할 방법.
  10. 청구항 9에 있어서,
    상기 크기 조정하는 것은,
    영역 경계의 사용자 선택을 수신하고;
    사용자 명령에 응답하여 상기 영역 경계를 이동시킴으로써 영역을 크기 조정하는 것을 포함하는 것인 디지털 영상의 영역 분할 방법.
  11. 청구항 1에 있어서,
    사용자 명령에 응답하여 적어도 하나의 잠재적인 영역 경계의 위치를 수정하는 것을 포함하는 디지털 영상의 영역 분할 방법.
  12. 청구항 1에 있어서,
    사용자 명령에 응답하여 영역들을 병합하는 것을 더 포함하는 디지털 영상의 영역 분할 방법.
  13. 청구항 12에 있어서,
    상기 병합하는 것은,
    병합될 적어도 둘의 인접한 영역들의 선택을 수신하고;
    상기 적어도 둘의 인접한 영역들을 분할하는 임의의 잠재적인 영역 경계들의 일부를 삭제하고;
    상기 적어도 둘의 인접한 영역들을 병합하여 단일 연속 영역을 형성하는 것을 포함하는 것인 디지털 영상의 영역 분할 방법.
  14. 디지털 영상의 영역을 처리하는 방법에 있어서,
    영역을 특징짓는(characterize) 제스처(gesture) 데이터를 수신하고;
    상기 제스처 데이터와 연관된 프로세싱 툴(processing tool)을 자동으로 시작하고;
    상기 프로세싱 툴을 사용하여 상기 영역을 처리하는 것을 포함하는 디지털 영상의 영역 처리 방법.
  15. 청구항 14에 있어서,
    상기 제스처 데이터는 닫힌 도형(closed figure)인 제스처 형상을 정의함으로써 영역의 형상, 크기 및 위치를 특징짓는 것인 디지털 영상의 영역 처리 방법.
  16. 청구항 14에 있어서,
    상기 제스처 데이터는 닫힌 도형의 형상과 연관되며 상기 닫힌 도형의 크기 및 위치를 정의하는 제스처 형상을 정의함으로써 영역을 특징짓는 것인 디지털 영상의 영역 처리 방법.
  17. 청구항 14에 있어서,
    상기 제스처 데이터는 상기 프로세싱 툴과 연관되어 있는 제스처 형상을 정의하는 것인 디지털 영상의 영역 처리 방법.
  18. 청구항 17에 있어서,
    상기 제스처 형상은 닫힌 도형인 것인 디지털 영상의 영역 처리 방법.
  19. 청구항 14에 있어서,
    상기 제스처 데이터는 상기 영역의 경계선들에 따른 좌표들을 포함하는 것인 디지털 영상의 영역 처리 방법.
  20. 청구항 14에 있어서,
    상기 프로세싱 툴을 자동으로 시작하는 것은,
    상기 제스처 데이터로부터 제스처 형상을 식별하고;
    프로세싱 툴 테이블을 검색하여 상기 프로세싱 툴 테이블에서 상기 식별된 제스처 형상과 연관된 프로세싱 툴을 판정하고;
    상기 프로세싱 툴을 자동으로 시작하고;
    상기 프로세싱 툴에 상기 제스처 데이터를 제공하는 것을 포함하는 것인 디지털 영상의 영역 처리 방법.
  21. 청구항 20에 있어서,
    상기 제스처 형상을 식별하는 것은,
    고유의 형상을 각각 나타내는 복수의 형상 템플릿들과 상기 제스처 데이터를 비교하고;
    상기 형상 템플릿들 중 어느 것이 상기 영역과 가장 유사한지 판정함으로써 상기 제스처 형상을 식별하는 것을 포함하는 것인 디지털 영상의 영역 처리 방법.
  22. 청구항 14에 있어서,
    상기 프로세싱 툴은 줌 툴, 크로핑 툴, 하이라이트 툴, 및 스포트라이트 툴로 구성되는 그룹으로부터 선택되는 것인 디지털 영상의 영역 처리 방법.
  23. 청구항 20에 있어서,
    상기 제스처 형상은 직사각형이고 상기 프로세싱 툴 테이블에서 직사각형과 연관된 프로세싱 툴은 줌 툴인 것인 디지털 영상의 영역 처리 방법.
  24. 청구항 20에 있어서,
    상기 제스처 형상은 타원형이고 상기 프로세싱 툴 테이블에서 타원형과 연관된 프로세싱 툴은 하이라이트/스포트라이트 툴인 것인 디지털 영상의 영역 처리 방법.
  25. 청구항 14에 있어서,
    상기 프로세싱 툴에 의한 영역의 처리는 사용자에 의해 제어 가능한 것인 디지털 영상의 영역 처리 방법.
  26. 청구항 25에 있어서,
    상기 프로세싱 툴은 줌 툴이고 상기 줌 툴의 확대 레벨은 사용자에 의해 더 제어 가능한 것인 디지털 영상의 영역 처리 방법.
  27. 디지털 영상을 영역들로 분할하기 위한 컴퓨터 프로그램을 구현하는 컴퓨터 판독가능한 매체에 있어서, 상기 컴퓨터 프로그램은,
    디지털 영상 내의 에지 콘텐츠에 기초하여 잠재적인 영역 경계들을 식별하는 컴퓨터 프로그램 코드; 및
    상기 식별된 잠재적인 영역 경계들 중 사용자가 선택한 경계들에 기초하여 상기 디지털 영상을 영역들로 분할하는 컴퓨터 프로그램 코드를 포함하는 것인, 컴퓨터 판독가능한 매체.
  28. 디지털 영상의 영역을 처리하기 위한 컴퓨터 프로그램을 구현하는 컴퓨터 판독가능한 매체에 있어서, 상기 컴퓨터 프로그램은,
    영역을 특징짓는 제스처 데이터를 수신하는 컴퓨터 프로그램 코드;
    상기 제스처 데이터와 연관된 프로세싱 툴을 자동으로 시작하는 컴퓨터 프로그램 코드; 및
    상기 프로세싱 툴을 사용하여 상기 영역을 처리하는 컴퓨터 프로그램 코드를 포함하는 것인, 컴퓨터 판독가능한 매체.
  29. 상호작용형 디스플레이 시스템에 있어서,
    컴퓨터 생성 영상이 제시되는 터치 표면을 정의하는 터치 스크린;
    상기 터치 표면 상의 포인터 접촉을 검출하고, 이에 응답하여 상기 컴퓨터 생성 영상의 영역을 특징짓는 제스처 데이터를 생성하는 센서 어셈블리; 및
    상기 제스처 데이터를 수신하고, 상기 영역을 처리하기 위해 상기 제스처 데이터와 연관된 프로세싱 툴을 자동으로 시작하는 프로세싱 구조를 포함하는 상호작용형 디스플레이 시스템.
  30. 청구항 29에 있어서,
    적어도 하나의 프로세싱 툴을 각각의 제스처 형상과 연관시키는 프로세싱 툴 테이블을 저장하는 메모리를 더 포함하고,
    상기 프로세싱 구조는 상기 제스처 데이터로부터 제스처 형상을 식별하고, 상기 영역을 처리하기 위해 상기 프로세싱 툴 테이블로부터 연관된 프로세싱 툴을 선택하는 것인 상호작용형 디스플레이 시스템.
  31. 청구항 29에 있어서,
    상기 프로세싱 툴은 줌 툴, 크로핑 툴, 하이라이트 툴, 및 스포트라이트 툴로 구성되는 그룹으로부터 선택되는 것인 상호작용형 디스플레이 시스템.
  32. 청구항 30에 있어서,
    상기 제스처 형상은 직사각형이고 상기 프로세싱 툴 테이블에서 직사각형과 연관된 프로세싱 툴은 줌 툴인 것인 상호작용형 디스플레이 시스템.
  33. 청구항 30에 있어서,
    상기 제스처 형상은 타원형이고 상기 프로세싱 툴 테이블에서 타원형과 연관된 프로세싱 툴은 하이라이트/스포트라이트 툴인 것인 상호작용형 디스플레이 시스템.
  34. 청구항 30에 있어서,
    상기 프로세싱 툴에 의한 영역의 처리는 사용자에 의해 제어 가능한 것인 상호작용형 디스플레이 시스템.
  35. 청구항 30에 있어서,
    상기 프로세싱 툴은 줌 툴이고 상기 줌 툴의 확대 레벨은 사용자에 의해 더 제어 가능한 것인 상호작용형 디스플레이 시스템.
KR1020107002585A 2007-07-17 2008-07-16 디지털 영상의 영역들을 조작하는 방법 KR20100051648A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/779,006 US8238662B2 (en) 2007-07-17 2007-07-17 Method for manipulating regions of a digital image
US11/779,006 2007-07-17

Publications (1)

Publication Number Publication Date
KR20100051648A true KR20100051648A (ko) 2010-05-17

Family

ID=40259262

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107002585A KR20100051648A (ko) 2007-07-17 2008-07-16 디지털 영상의 영역들을 조작하는 방법

Country Status (8)

Country Link
US (1) US8238662B2 (ko)
EP (1) EP2168095A4 (ko)
KR (1) KR20100051648A (ko)
CN (1) CN101765860A (ko)
AU (1) AU2008278242A1 (ko)
CA (1) CA2693775C (ko)
NZ (1) NZ582553A (ko)
WO (1) WO2009009896A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101390561B1 (ko) * 2013-02-15 2014-05-27 한양대학교 에리카산학협력단 자막 검출 방법 및 그 장치
US9524040B2 (en) 2012-03-08 2016-12-20 Samsung Electronics Co., Ltd Image editing apparatus and method for selecting area of interest
US11787469B2 (en) 2018-10-15 2023-10-17 Hyundai Motor Company Vehicle and control method thereof

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101513024B1 (ko) * 2008-04-22 2015-04-17 엘지전자 주식회사 단말기 및 이것의 이미지 인식 방법
US8291341B2 (en) * 2008-05-28 2012-10-16 Google Inc. Accelerated panning user interface interactions
DE102009003995A1 (de) * 2008-08-06 2010-02-11 Rohde & Schwarz Gmbh & Co. Kg Verfahren zur Vergrößerung eines Darstellungsbereichs auf einer Darstellungseinrichtung
JP5326802B2 (ja) * 2009-05-19 2013-10-30 ソニー株式会社 情報処理装置、画像拡大縮小方法及びそのプログラム
US8532435B1 (en) * 2009-08-18 2013-09-10 Adobe Systems Incorporated System and method for automatically adapting images
KR101669618B1 (ko) * 2010-01-15 2016-10-26 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
US9235452B2 (en) * 2010-02-05 2016-01-12 Microsoft Technology Licensing, Llc Graphics remoting using augmentation data
US8867837B2 (en) 2010-07-30 2014-10-21 Hewlett-Packard Development Company, L.P. Detecting separator lines in a web page
CN102420969A (zh) * 2010-09-27 2012-04-18 比亚迪股份有限公司 倒车辅助系统及方法
US8542396B2 (en) * 2010-10-21 2013-09-24 Yi-Lin Chen System of making a personalized photo album
US8861797B2 (en) * 2010-11-12 2014-10-14 At&T Intellectual Property I, L.P. Calibrating vision systems
JP2012118832A (ja) * 2010-12-02 2012-06-21 Sony Corp 情報処理装置、情報処理方法及びプログラム
US20120210200A1 (en) * 2011-02-10 2012-08-16 Kelly Berger System, method, and touch screen graphical user interface for managing photos and creating photo books
JP2013080326A (ja) * 2011-10-03 2013-05-02 Sony Corp 画像処理装置、画像処理方法及びプログラム
US20130143657A1 (en) * 2011-11-14 2013-06-06 Amazon Technologies, Inc. Input Mapping Regions
CN104020935A (zh) * 2013-02-28 2014-09-03 国际商业机器公司 用于控制显示屏上的显示对象的方法和装置
JP6475691B2 (ja) * 2013-03-21 2019-02-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. X線画像における構造のコンピュータ援用検出のための方法およびx線システム
US20150058710A1 (en) * 2013-08-21 2015-02-26 Microsoft Corporation Navigating fixed format document in e-reader application
US10769446B2 (en) 2014-02-28 2020-09-08 Second Spectrum, Inc. Methods and systems of combining video content with one or more augmentations
US10713494B2 (en) 2014-02-28 2020-07-14 Second Spectrum, Inc. Data processing systems and methods for generating and interactive user interfaces and interactive game systems based on spatiotemporal analysis of video content
US11120271B2 (en) 2014-02-28 2021-09-14 Second Spectrum, Inc. Data processing systems and methods for enhanced augmentation of interactive video content
US11861906B2 (en) 2014-02-28 2024-01-02 Genius Sports Ss, Llc Data processing systems and methods for enhanced augmentation of interactive video content
US10521671B2 (en) 2014-02-28 2019-12-31 Second Spectrum, Inc. Methods and systems of spatiotemporal pattern recognition for video content development
ES2569578B1 (es) * 2014-10-07 2017-01-25 Maxwell & Lorentz, S.L. Sistema de generación de calor mediante inducción magnética
US20160246488A1 (en) * 2015-02-24 2016-08-25 Jonathan Sassouni Media Reveal Feature
EP3091427A1 (en) * 2015-05-06 2016-11-09 Thomson Licensing Apparatus and method for selecting an image area
US10203852B2 (en) 2016-03-29 2019-02-12 Microsoft Technology Licensing, Llc Content selection in web document
US11113535B2 (en) 2019-11-08 2021-09-07 Second Spectrum, Inc. Determining tactical relevance and similarity of video sequences

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5680479A (en) * 1992-04-24 1997-10-21 Canon Kabushiki Kaisha Method and apparatus for character recognition
US5523775A (en) * 1992-05-26 1996-06-04 Apple Computer, Inc. Method for selecting objects on a computer display
US5583946A (en) * 1993-09-30 1996-12-10 Apple Computer, Inc. Method and apparatus for recognizing gestures on a computer system
US5546474A (en) * 1993-12-21 1996-08-13 Hewlett-Packard Company Detection of photo regions in digital images
IL114838A0 (en) * 1995-08-04 1996-11-14 Spiegel Ehud Apparatus and method for object tracking
US6300947B1 (en) 1998-07-06 2001-10-09 International Business Machines Corporation Display screen and window size related web page adaptation system
JP2000163044A (ja) 1998-11-30 2000-06-16 Sharp Corp 画像表示装置
US6345279B1 (en) 1999-04-23 2002-02-05 International Business Machines Corporation Methods and apparatus for adapting multimedia content for client devices
US6473522B1 (en) 2000-03-14 2002-10-29 Intel Corporation Estimating text color and segmentation of images
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
JP2002192800A (ja) * 2000-12-25 2002-07-10 Canon Inc 画像印刷装置および画像印刷方法
JP2003162370A (ja) 2001-09-14 2003-06-06 Ricoh Co Ltd 画像処理装置、タッチパネル付きディスプレイ装置、画像処理方法、および画像処理方法をコンピュータに実行させるプログラム
US7203901B2 (en) 2002-11-27 2007-04-10 Microsoft Corporation Small form factor web browsing
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US20050195221A1 (en) 2004-03-04 2005-09-08 Adam Berger System and method for facilitating the presentation of content via device displays
US7441207B2 (en) 2004-03-18 2008-10-21 Microsoft Corporation Method and system for improved viewing and navigation of content
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US20060078162A1 (en) * 2004-10-08 2006-04-13 Dynapel, Systems, Inc. System and method for stabilized single moving camera object tracking
AU2006254689B2 (en) * 2005-06-02 2012-03-08 Salient Imaging, Inc. System and method of computer-aided detection
WO2007000743A2 (en) * 2005-06-28 2007-01-04 Koninklijke Philips Electronics, N.V. In-zoom gesture control for display mirror
US7980948B2 (en) * 2006-12-19 2011-07-19 Igt Dynamic side wagering system for use with electronic gaming devices

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9524040B2 (en) 2012-03-08 2016-12-20 Samsung Electronics Co., Ltd Image editing apparatus and method for selecting area of interest
KR101390561B1 (ko) * 2013-02-15 2014-05-27 한양대학교 에리카산학협력단 자막 검출 방법 및 그 장치
US11787469B2 (en) 2018-10-15 2023-10-17 Hyundai Motor Company Vehicle and control method thereof

Also Published As

Publication number Publication date
WO2009009896A1 (en) 2009-01-22
AU2008278242A1 (en) 2009-01-22
CA2693775A1 (en) 2009-01-22
EP2168095A4 (en) 2011-07-27
US8238662B2 (en) 2012-08-07
CA2693775C (en) 2016-09-13
NZ582553A (en) 2013-01-25
US20090022394A1 (en) 2009-01-22
CN101765860A (zh) 2010-06-30
EP2168095A1 (en) 2010-03-31

Similar Documents

Publication Publication Date Title
US8238662B2 (en) Method for manipulating regions of a digital image
US9330292B2 (en) Two-dimensional code scanning method and device
US20140300542A1 (en) Portable device and method for providing non-contact interface
US20140189482A1 (en) Method for manipulating tables on an interactive input system and interactive input system executing the method
US9792268B2 (en) Zoomable web-based wall with natural user interface
KR20180018561A (ko) 이미지 영역을 선택 및 추적함으로써 비디오를 확대축소하기 위한 장치 및 방법
CN111475059A (zh) 基于近距离传感器和图像传感器的手势检测
US20140333585A1 (en) Electronic apparatus, information processing method, and storage medium
JP2007041866A (ja) 情報処理装置及び情報処理方法並びにプログラム
KR101690254B1 (ko) 이미지 처리 장치의 사용자 인터페이스 처리 방법 및 장치
JP2014029656A (ja) 画像処理装置および画像処理方法
US20160300321A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
EP1356423A2 (en) System and method for extracting a point of interest of an object in front of a computer controllable display captured by an imaging device
CN110727383A (zh) 基于小程序的触控交互方法、装置、电子设备与存储介质
US20160321968A1 (en) Information processing method and electronic device
CN110737417B (zh) 一种演示设备及其标注线的显示控制方法和装置
JP2013080266A (ja) 入力装置
JP2011014076A (ja) 情報処理装置、文書拡大表示方法、プログラム及び記録媒体
US20170310920A1 (en) Method and system for rendering documents with depth camera for telepresence
US20130321470A1 (en) Apparatus and method for viewing an image that is larger than an area of a display device
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
CN113873168A (zh) 拍摄方法、装置、电子设备及介质
CN112000413A (zh) 一种能够保护信息的截图方法、系统及智能终端
JP7331578B2 (ja) 表示装置、画像表示方法、プログラム
US11816327B2 (en) Display apparatus, method for displaying, and non-transitory recording medium

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid