KR20060130647A - Methods and apparatuses for formatting and displaying content - Google Patents
Methods and apparatuses for formatting and displaying content Download PDFInfo
- Publication number
- KR20060130647A KR20060130647A KR1020067015730A KR20067015730A KR20060130647A KR 20060130647 A KR20060130647 A KR 20060130647A KR 1020067015730 A KR1020067015730 A KR 1020067015730A KR 20067015730 A KR20067015730 A KR 20067015730A KR 20060130647 A KR20060130647 A KR 20060130647A
- Authority
- KR
- South Korea
- Prior art keywords
- picture
- image
- location
- parameter
- display
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32128—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4334—Recording operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
- H04N21/8153—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/9201—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
- H04N5/9206—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3225—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
- H04N2201/3226—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of identification information or the like, e.g. ID code, index, title, part of an image, reduced-size image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3225—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
- H04N2201/3252—Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3225—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
- H04N2201/3253—Position information, e.g. geographical position at time of capture, GPS data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3225—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
- H04N2201/3254—Orientation, e.g. landscape or portrait; Location or order of the image data, e.g. in memory
Abstract
Description
본 발명은 일반적으로 콘텐츠를 포맷하고 표시하기 위한 것이며, 특히, 콘텐츠의 로케이션에 기초하여 콘텐츠를 동기화하고 식별하는 것에 관한 것이다.The present invention generally relates to formatting and displaying content, and more particularly, to synchronizing and identifying content based on the location of the content.
사용자에 의해 이용되는 콘텐츠가 급증하고 있다. 이러한 콘텐츠는 전형적으로 비디오 트랙, 그래픽 화상, 및 사진등을 포함한다. 여러 경우에, 사용자에 의해 이용되는 콘텐츠는, 콘텐츠의 각 부분간의 관계를 완전히 실현하지 않고 저장된다. The content used by the user is increasing rapidly. Such content typically includes video tracks, graphic pictures, photographs, and the like. In many cases, the content used by the user is stored without fully realizing the relationship between each part of the content.
예컨대, 화상은 전형적으로 화상의 시각적 품질에 유의하여 캡쳐된다. 불행하게도, 화상의 환경을 묘사하는 각 화상에 관한 부가적인 고유 정보는 캡쳐되지 않는다.For example, an image is typically captured paying attention to the visual quality of the image. Unfortunately, additional unique information about each picture depicting the environment of the picture is not captured.
이러한 증가하는 콘텐츠의 양을 관리하는 것은 대다수의 사용자에게 난제이다. 콘텐츠 양이 증가함에 따라, 각 화상의 환경에 연관된 부가적인 고유 정보를 추적하는 것은 더 곤란하게 된다. Managing this increasing amount of content is a challenge for the majority of users. As the amount of content increases, it becomes more difficult to track additional unique information related to the environment of each picture.
<발명의 요약>Summary of the Invention
일 실시예에서, 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치는, 디바이스 로 화상을 캡쳐하고, 화상과 관련된 화상 파라미터를 검출하고, 화상 파라미터가 나중에 액세스에 이용 가능하도록 화상 파라미터를 저장하고, 화상 파라미터 중 적어도 하나에 기초하여 디스플레이 로케이션에 화상을 표시하는 것을 포함한다.In one embodiment, a method and apparatus for formatting and displaying content includes capturing images with a device, detecting image parameters associated with the image, storing the image parameters so that the image parameters are available for later access, and the image parameters. Displaying an image at a display location based on at least one of the following.
본 명세서 내에 결합되고, 본 명세서의 일부를 구성하는 첨부 도면은 콘텐츠를 동기화하고 식별하기 위한 방법 및 장치에 대한 일 실시예를 도시하고 설명한다. The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate and describe one embodiment of a method and apparatus for synchronizing and identifying content.
도 1은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치가 구현되는 환경을 도시하는 도면.1 illustrates an environment in which a method and apparatus for formatting and displaying content are implemented.
도 2는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치가 구현되는 일 실시예를 도시하는 간략화된 블록도.2 is a simplified block diagram illustrating one embodiment in which a method and apparatus for formatting and displaying content are implemented.
도 3은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예에 따른 시스템을 도시하는 간략화된 블록도.3 is a simplified block diagram illustrating a system according to one embodiment of a method and apparatus for formatting and displaying content.
도 4는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치로 이용하기 위한 예시적인 레코드.4 is an exemplary record for use with a method and apparatus for formatting and displaying content.
도 5a는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예에 따른 데이터 구조.5A is a data structure according to one embodiment of a method and apparatus for formatting and displaying content.
도 5b는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 다른 실시예에 따른 데이터 구조.5B is a data structure according to another embodiment of a method and apparatus for formatting and displaying content.
도 6은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예에 따른 순서도.6 is a flow chart according to one embodiment of a method and apparatus for formatting and displaying content.
도 7은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예에 따른 순서도.7 is a flow chart according to one embodiment of a method and apparatus for formatting and displaying content.
도 8은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예에 따른 순서도.8 is a flow chart according to one embodiment of a method and apparatus for formatting and displaying content.
도 9는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예를 도시하는 예시적인 도면.9 is an illustrative diagram illustrating one embodiment of a method and apparatus for formatting and displaying content.
콘텐츠를 포맷하고 표시하기 위한 방법 및 장치에 대한 다음의 상세한 설명은 첨부 도면을 참조한다. 상세한 설명은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치를 제한하도록 의도되지 않는다. 대신에, 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 범주는 부가된 특허청구범위 및 그 균등물에 의해 한정된다. 본 기술분야의 숙련자는 본 발명에 따라 다수의 여러 구현례가 가능하다는 것을 알 수 있다. DETAILED DESCRIPTION The following detailed description of methods and apparatus for formatting and displaying content refers to the accompanying drawings. The detailed description is not intended to limit the methods and apparatus for formatting and displaying content. Instead, the scope of methods and apparatus for formatting and displaying content is defined by the appended claims and their equivalents. Those skilled in the art will appreciate that many different embodiments are possible in accordance with the present invention.
"콘텐츠"라 함은, 디지털 또는 아날로그 전자적 형태로 구현되는 화상, 비디오, 그래픽등과 같은 데이터를 포함하는 것이다."Content" includes data such as pictures, videos, graphics, etc., which are implemented in digital or analog electronic form.
"전자 디바이스"라 함은, 비디오 카메라, 정지 화상 카메라, 화상 캡쳐 모듈을 구비한 셀룰러 폰, 화상 캡쳐 모듈을 구비한 PDA 및 화상 캡쳐 디바이스와 같은 디바이스를 포함하는 것이다.By "electronic device" is meant to include devices such as video cameras, still picture cameras, cellular phones with image capture modules, PDAs with image capture modules and image capture devices.
도 1은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치가 구현되는 환경을 도시하는 도면이다. 환경은 전자 디바이스(110)(예컨대, 컴퓨터, PDA, 디지털 카메라, 비디오 카메라와 같은 클라이언트 디바이스로서 동작하도록 구성된 컴퓨팅 플랫폼), 사용자 인터페이스(115), 네트워크(120)(예컨대, 로컬 영역 네트워크, 홈 네트워크, 인터넷), 및 서버(130)(예컨대, 서버로서 동작하도록 구성된 컴퓨팅 플랫폼)을 포함한다.1 is a diagram illustrating an environment in which a method and apparatus for formatting and displaying content are implemented. The environment may include electronic device 110 (eg, a computing platform configured to operate as a client device such as a computer, PDA, digital camera, video camera),
일 실시예에서, 하나 이상의 사용자 인터페이스(115) 콤포넌트는 전자 디바이스(110)(예컨대, PDA 전자기기(예컨대, Sony 사에 의해 제조된 Clie®등)와 같이 동일 하우징내의 키패드 및 비디오 디스플레이 스크린 입출력 인터페이스)와 통합되어 구성된다. 다른 실시예에서, 하나 이상의 사용자 인터페이스(115) 콤포넌트(예컨대, 키보드, 포인팅 디바이스(마우스, 트랙볼등), 마이크로폰, 스피커, 디스플레이, 카메라)는 전자 디바이스(110)로부터 물리적으로 분리되고, 종래와 같이 전자 디바이스(110)에 결합된다. 사용자는 인터페이스(115)를 이용하여, 전자 디바이스(110), 서버(130), 또는 네트워크(120)를 통해 결합된 원격 저장 디바이스(도시되지 않음)에 저장된 콘텐츠 및 애플리케이션을 액세스하고 제어한다.In one embodiment, one or
본 발명에 따라, 이하에서 콘텐츠를 포맷하고 표시하는 실시예는 전자 디바이스(110), 서버(130)내의 전자 프로세서에 의해 실행되거나, 전자 디바이스(110) 및 서버(130)에서 함께 동작하는 프로세서들에 의해 실행된다. 서버(130)는 도 1에서 단일 컴퓨팅 플랫폼으로 도시되지만, 다른 경우에는 서버로서 동작하는 2개 이상이 상호 접속된 컴퓨팅 플랫폼으로 도시된다.According to the present invention, an embodiment of formatting and displaying content in the following is executed by an electronic processor in the
콘텐츠를 포맷하고 표시하기 위한 방법 및 장치는, 화상과 연관된 파라미터 에 기초하여 화상이 특정 포맷 및 로케이션에서 표시되는 애플리케이션의 예시적인 실시예와 관련해서 도시된다. 일 실시예에서, 화상은 전자 디바이스(110) 및 네트워크(120)를 통해 이용된다. 다른 실시예에서, 화상은 서버(130) 및/또는 전자 디바이스(110)내에 위치하는 애플리케이션에 의해 포맷되고 표시된다.A method and apparatus for formatting and displaying content is shown in connection with an exemplary embodiment of an application in which an image is displayed in a particular format and location based on parameters associated with the image. In one embodiment, the image is used via
일 실시예에서, 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치는 자동적으로 화상과 연관된 레코드를 생성한다. 일례에서, 레코드내의 정보는, 대응하는 화상과 연관된 미리 저장된 레코드에 기초하여 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치에 의해 자동적으로 완성된다. In one embodiment, a method and apparatus for formatting and displaying content automatically creates a record associated with the picture. In one example, the information in the record is automatically completed by a method and apparatus for formatting and displaying the content based on a pre-stored record associated with the corresponding picture.
도 2는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치가 구현되는 예시적인 아키텍쳐를 도시하는 간략화된 도면이다. 예시적인 아키텍쳐는 복수의 전자 디바이스(110), 서버 디바이스(130), 및 전자 디바이스(110)를 서버(130) 및 각각의 전자 디바이스(110)에 서로 접속하는 네트워크(120)를 포함한다. 복수의 전자 디바이스(110)는 전자 프로세서(208)에 결합된, RAM과 같은 컴퓨터 판독가능 매체(209)를 포함하도록 각각 구성된다. 프로세서(208)는 컴퓨터 판독가능 매체(209)에 저장된 프로그램 명령을 실행한다. 고유한 사용자는 도 1을 참조하여 기술된 바와 같이 인터페이스(115)를 통해 각각의 전자 디바이스(110)를 동작시킨다.2 is a simplified diagram illustrating an example architecture in which a method and apparatus for formatting and displaying content are implemented. An example architecture includes a plurality of
서버 디바이스(130)는 컴퓨터 판독가능 매체(212)에 결합된 프로세서(211)을 포함한다. 일 실시예에서, 서버 디바이스(130)는, 데이터베이스(240)과 같은, 제2 데이터 저장 엘리먼트와 같은 하나 이상의 외부 또는 내부 디바이스에 결합되지만 이에 한정되는 것은 아니다.
일례에서, 프로세서(208 및 211)는 캘리포니아, 산타클라라에 있는 인텔사에 의해 제조된다. 다른 예에서, 다른 마이크로프로세서도 이용된다.In one example,
복수의 클라이언트 디바이스(110) 및 서버(130)는 콘텐츠를 포맷하고 표시하는 커스토마이즈된(customized) 애플리케이션을 위한 명령을 포함한다. 일 실시예에서, 복수의 컴퓨터-판독가능 매체(209 및 212)는 부분적으로 커스토마이즈된 애플리케이션을 포함한다. 부가적으로, 복수의 클라이언트 디바이스(110) 및 서버(130)는 커스토마이즈된 애플리케이션으로 이용하기 위한 전자 메시지를 수신 및 송신하도록 구성된다. 유사하게, 네트워크(120)는 커스토마이즈된 애플리케이션으로 이용하기 위한 전자 메시지를 송신하도록 구성된다.The plurality of
하나 이상의 사용자 애플리케이션은 메모리(209), 메모리(211)내에 저장되고, 또는 단일 사용자 애플리케이션은 부분적으로 하나의 메모리(209) 및 부분적으로 메모리(211)에 저장된다. 일례에서, 저장된 사용자 애플리케이션은, 저장 로케이션에 무관하게, 이하 기술되는 실시예를 이용하여 결정되는 것과 같은 콘텐츠를 포맷하고 표시하는 것에 기초하여 커스토마이즈될 수 있다. One or more user applications are stored in
도 3은 포맷 및 표시 시스템(300)의 실시예를 도시한다. 일 실시예에서, 시스템(300)은 서버(130)내에 구현된다. 다른 실시예에서, 시스템(300)은 전자 디바이스(110)내에 구현된다. 다른 실시예에서, 시스템(300)은 전자 디바이스(110) 및 서버(130) 모두에 구현된다. 3 illustrates an embodiment of a format and
일 실시예에서, 시스템(300)은 렌더(render) 모듈(310), 로케이션 모듈(320), 저장 모듈(330), 인터페이스 모듈(340), 제어 모듈(350), 및 캡쳐 모듈을 포함한다.In one embodiment,
일 실시예에서, 제어 모듈(350)은, 렌더 모듈(310), 로케이션 모듈(320), 저장 모듈(330), 인터페이스 모듈(340), 및 캡쳐 모듈(360)과 통신한다. 일 실시예에서, 제어 모듈(350)은, 태스크, 요청 및 렌더 모듈(310), 로케이션 모듈(320), 저장 모듈(330), 인터페이스 모듈(340), 및 캡쳐 모듈(360)간의 통신을 조정한다. In one embodiment, the
일 실시예에서, 렌더 모듈(310)은 화상 데이터 및 로케이션 데이터에 기초하여 화상을 표시한다. 다른 실시예에서, 렌더 모듈(310)은 각 화상의 화상 데이터 및 로케이션 데이터에 기초하여 복수의 화상을 표시한다. 일 실시예에서, 화상 데이터는 캡쳐 모듈(360)에 의해 식별된다. 일 실시예에서, 화상 데이터는 JPEG 파일의 형태이다. 다른 예에서, 화상 데이터는 RAW 파일의 형태이다. 다른 예에서, 화상 데이터는 TIFF 파일의 형태이다.In one embodiment, the render
일 실시예에서, 로케이션 데이터는 로케이션 모듈(320)에 의해 식별된다. 일례에서, 로케이션 데이터는, 디바이스의 스트릿 어드레스(street address)와 같은 디바이스의 특정 로케이션을 나타낸다. 다른 예에서, 로케이션 데이터는 또한 수평선, 시야선등과 같은 디바이스의 위치 방위를 나타낸다. 다른 실시예에서, 로케이션은 또한, 뷰파인더(viewfinder)에 의해 캡쳐되는 영역, 렌즈의 줌등과 같은, 뷰파인더 또는 디바이스를 통해 보여지는 화상 로케이션을 나타낸다.In one embodiment, location data is identified by
일 실시예에서, 로케이션 모듈(320)은 로케이션 데이터를 처리한다. 일 실시예에서, 로케이션 데이터는 스트릿 세분성(granularity)에 의해 스트릿상에서 디바이스의 광범위한 로케이션을 제공하는 범용 로케이션 데이터를 포함한다. 다른 실시예에서, 로케이션 데이터는 디바이스의 뷰파인더를 통해 보여지는 특정 로케이션 데이터를 제공하는 화상 로케이션 데이터를 포함한다. In one embodiment,
일 실시예에서, 범용 로케이션 데이터는 글로벌 포지셔닝 시스템(GPS)에 의해 수집된다. 본 실시예에서, GPS 시스템은 디바이스의 로케이션을 감지하고, 디바이스의 위치를 정할 수 있다. 다른 실시예에서, 범용 로케이션 데이터는, 디바이스의 로케이션을 제공할 수 있는 복수의 셀룰러 폰 수신기에 의해 수집된다.In one embodiment, general purpose location data is collected by a global positioning system (GPS). In this embodiment, the GPS system can detect the location of the device and locate the device. In another embodiment, general purpose location data is collected by a plurality of cellular phone receivers that can provide a location of the device.
일 실시예에서, 화상 로케이션 데이터는, 뷰파인더가 향하는 방향 및 뷰파인더에 나타나는 정보의 양을 제공하는 디바이스내의 적어도 하나의 센서에 의해 공급된다. 일례에서, 디바이스는 뷰파인더의 방향을 감지하고, 정북 방향에 따라 조정된 좌표를 통해 이 방향을 표시한다. 다른 예에서, 디바이스는 디바이스의 현재 초점 길이를 감지하고, 뷰파인더에 의해 이용가능한 정보의 양을 결정한다.In one embodiment, the image location data is supplied by at least one sensor in the device that provides the direction the viewfinder is facing and the amount of information that appears in the viewfinder. In one example, the device senses the direction of the viewfinder and displays this direction through coordinates adjusted according to the true north direction. In another example, the device senses the current focal length of the device and determines the amount of information available by the viewfinder.
일 실시예에서, 로케이션 모듈(320)은 범용 로케이션 데이터 및 시스템(300)에 대한 특정 화상과 연관된 화상 로케이션 데이터를 공급한다.In one embodiment,
일 실시예에서, 저장 모듈(330)은 특정 콘텐츠와 연관된 로케이션 데이터를 포함하는 레코드를 저장한다. 다른 실시예에서, 저장 모듈(330)은 또한 레코드와 연관된 특정 콘텐츠를 저장한다.In one embodiment, the
일 실시예에서, 인터페이스 모듈(340)은 전자 디바이스(110) 중 하나로부터 특정 기능을 위한 요청을 수신한다. 예컨대, 일례에서, 전자 디바이스는 시스템(300)을 통해 다른 디바이스로부터 콘텐츠를 요청한다. 다른 실시예에서, 인터페이스 모듈(340)은 디바이스의 사용자로부터 요청을 수신한다. 다른 실시예에서, 인터페이스 모듈(340)은 콘텐츠와 연관된 레코드내에 포함된 정보를 표시한다.In one embodiment, the
일 실시예에서, 캡쳐 모듈(360)은 시스템(300)에 의해 이용되는 특정 화상을 식별한다. 일 실시예에서, 캡쳐 모듈(320)은 특정 화상을 식별한다. 다른 실시예에서, 캡쳐 모듈(320)은 디바이스에 의해 캡쳐된 특정 화상을 처리한다.In one embodiment, capture module 360 identifies the particular image used by
도 3의 시스템(300)은 예시적인 목적으로 도시되었고, 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 단지 일 실시예일 뿐이다. 부가적인 모듈이 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 범주를 벗어남이 없이 시스템(300)에 부가될 수 있다. 유사하게, 모듈은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 범주를 벗어나지 않고 조합되거나 제거될 수 있다.The
도 4는 시스템(300)에서 사용하기 위한 예시적인 레코드(400)를 도시한다. 레코드(400)는 특정 콘텐츠와 연관되어 있다. 몇몇 실시예에서, 레코드(400)는, 디바이스 범용 로케이션 필드(410), 화상의 수평 방위 필드(420), 화상의 수직 방위 필드(430), 시야각 필드(440), 연관된 화상 필드(450), 공통 레퍼런스 포인트 필드(460), 화상 식별 필드(470), 및 물체의 거리 필드(480)를 포함한다.4 shows an
일 실시예에서, 디바이스의 범용 로케이션 필드(410)는 대응하는 화상을 캡쳐하는 동안 디바이스의 로케이션을 나타낸다. 일 실시예에서, 디바이스의 로케이션은 분 및 초와 같은 지리적 좌표로 표현된다. 다른 실시예에서, 디바이스의 로케이션은 스트릿 어드레스 또는 어트랙션(attraction)으로 표현된다.In one embodiment, the device's
일 실시예에서, 화상의 수평 방위 필드(420)는 대응하는 화상의 수평 방위를 나타낸다. 일 실시예에서, 수평 방위는 정북방향으로부터 도(degree)에 의해 표현 된다.In one embodiment, the horizontal orientation field 420 of the image represents the horizontal orientation of the corresponding image. In one embodiment, the horizontal orientation is represented by degrees from the true north direction.
일 실시예에서, 화상의 수직 방위 필드(430)는 대응하는 화상의 수직 방위를 나타낸다. 일 실시예에서, 수직 방향은 수평선으로부터 도에 의해 표현된다.In one embodiment, the vertical orientation field 430 of the image represents the vertical orientation of the corresponding image. In one embodiment, the vertical direction is represented by degrees from the horizontal line.
일 실시예에서, 시야각 필드(440)는 대응하는 화상내에서 캡쳐된 전체 화상 영역을 나타낸다. 예컨대, 시야각은 일 실시예에서 줌 또는 확대량에 의해 표현된다.In one embodiment, the viewing angle field 440 represents the entire image area captured within the corresponding image. For example, the viewing angle is represented by the zoom or magnification in one embodiment.
일 실시예에서, 디바이스의 범용 로케이션 필드(410), 화상의 수평 방위 필드(420), 화상의 수직 방위 필드(430), 및 시야각 필드(440)는 대응하는 화상을 캡쳐하는 동안 디바이스에 의해 캡쳐된다. 조합에 있어서, 디바이스의 범용 로케이션 필드(410), 화상의 수평 방위 필드(420), 화상의 수직 방위 필드(430), 및 시야각 필드(440)와 연관된 파라미터는, 기록된 유사한 파라미터를 갖는 다른 화상과 비교하여 대응하는 화상을 충분히 기술할 수 있다.In one embodiment, the device's
일 실시예에서, 연관된 화상 필드(450)는 레코드(400)와 연관된 화상과 관련된 적어도 하나의 다른 화상을 표시한다. 예컨대, 이 특정 화상에 대한 디바이스의 로케이션과 유사한 디바이스의 로케이션 필드(410)를 갖는 다른 화상은 관련된 화상으로 고려된다. 일 실시예에서, 연관된 화상은 특정 화상으로부터 상이한 수평 방위 또는 상이한 수직 방위를 갖는다. 다른 실시예에서, 연관된 화상은 특정 화상으로부터 시야각을 갖는다.In one embodiment, the associated picture field 450 displays at least one other picture associated with the picture associated with the
일 실시예에서, 공통 레퍼런스 포인트(460)는 복수의 화상에 대한 공통 레퍼런스 로케이션을 식별한다. 일 실시예에서, 공통 레퍼런스 로케이션은 디바이스로 부터 계산된다. 다른 실시예에서, 공통 레퍼런스 로케이션은 각각의 대응하는 화상으로부터 계산된다. In one embodiment, common reference point 460 identifies common reference locations for the plurality of pictures. In one embodiment, the common reference location is calculated from the device. In another embodiment, a common reference location is calculated from each corresponding picture.
일 실시예에서, 화상 식별 필드(470)는 화상을 식별한다. 일례에서, 화상 식별 필드(470)는 특정 화상에 대한 서술적 타이틀을 포함한다. 다른 예에서, 화상 식별 필드(470)는 특정 화상에 대응하는 고유 식별을 포함한다.In one embodiment, the picture identification field 470 identifies a picture. In one example, picture identification field 470 includes a descriptive title for a particular picture. In another example, image identification field 470 includes a unique identification corresponding to a particular image.
일 실시예에서, 물체의 거리 필드(480)는 화상을 캡쳐하는 디바이스와 화상의 물체간의 거리를 식별한다. 일 실시예에서, 이 거리는 디바이스내의 초점 메커니즘으로부터 계산된다.In one embodiment, the distance field 480 of the object identifies the distance between the device capturing the image and the object of the image. In one embodiment, this distance is calculated from the focus mechanism in the device.
도 5a는 레코드(400), 대응하는 화상, 및 시스템(300)에서 이용하기 위한 데이터 구조를 도시한다. 데이터 구조는 레코드 테이블(500) 및 화상 테이블(510)을 포함한다. 일 실시예에서, 레코드 테이블(500)은 저장 모듈(330)내에 저장된다. 다른 실시예에서, 화상 테이블(510)은 저장 모듈(330)내에 저장된다.5A shows a
일 실시예에서, 레코드 테이블(500)은 레코드(515) 및 레코드(400)와 유사한 레코드(525)를 포함한다. 일 실시예에서, 화상 테이블(510)은 화상(520) 및 화상(530)을 포함한다. 일례에서, 레코드(515)는 화상(520)과 대응하고, 레코드(525)는 화상(530)과 대응한다. 화상 및 대응하는 레코드가 본 실시예에서는 별도로 저장되지만, 화상 및 대응하는 레코드는, 화상의 하나가 이용될 때 대응하는 레코드가 식별될 수 있도록 서로 논리적으로 링크되도록 구성된다.In one embodiment, record table 500 includes
도 5b는 레코드(400), 대응하는 화상, 및 시스템(300)에 이용하기 위한 데이터 구조(550)를 도시한다. 일 실시예에서, 데이터 구조(550)는 대응하는 화 상(570)과 결합된 레코드(560)를 포함한다. 본 실시예에서, 화상 및 대응하는 레코드 모두는, 화상이 이용될 때 레코드가 더 이상의 동작없이 이용가능해지도록 서로 결합된다.5B shows a
도 6, 7 및 8에 도시된 순서도는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예이다. 순서도내의 블록은, 콘텐츠를 동기화하고 추적하기 위한 방법 및 장치의 사상을 벗어나지 않고 상이한 시퀀스로 수행될 수 있다. 또한, 블록은 콘텐츠를 동기화하고 추적하기 위한 방법 및 장치의 사상을 벗어나지 않고 제거, 부가 또는 조합될 수 있다.6, 7, and 8 are one embodiment of a method and apparatus for formatting and displaying content. Blocks in the flowcharts may be performed in different sequences without departing from the spirit and methods of synchronizing and tracking content. In addition, blocks may be removed, added, or combined without departing from the spirit and methods of synchronizing and tracking content.
도 6의 순서도는 본 발명의 일 실시예에 따라 화상을 캡쳐하는 것과 화상에 대응하는 로케이션 정보를 도시한다. 블록(610)에서, 화상을 캡쳐하는 전자 디바이스가 식별된다. 일 실시예에서, 특정 전자 디바이스는 사용자에 의해 식별된다. 일 실시예에서, 전자 디바이스는 디지털 카메라, 비디오 카메라, 화상 캡쳐 모듈을 구비한 개인용 디지털 디바이스, 집적된 카메라를 구비한 셀룰러폰등이다.6 illustrates capturing an image and location information corresponding to the image, according to one embodiment of the invention. At
블록(620)에서, 전자 디바이스의 로케이션이 검출된다. 일 실시예에서, 디바이스의 로케이션은 디바이스의 범용 로케이션 필드(410)내에 저장된다.At
블록(630)에서, 화상은 전자 디바이스에 의해 캡쳐된다.At
블록(640)에서, 블록(630)에서 캡쳐된 화상에 대응하는 화상 정보가 검출된다. 일 실시예에서, 화상 정보는 화상의 수평 방위, 화상의 수직 방위, 시야각, 및/또는 물체로부터의 거리를 포함한다. 일 실시예에서, 화상의 수평 방위, 화상의 수직 방위, 및 시야각은, 화상의 수평 방위 필드(420), 화상의 수직 방위 필 드(430), 및 시야각 필드(440)에 각각 기록된다. At
블록(650)에서, 화상은 저장된다. 일 실시예에서, 화상은 저장 모듈(330)내에 저장된다. 일례에서, 화상은 도 5a에 도시된 테이블내에 저장된다. 다른 예에서, 화상은 도 5b에 도시된 바와 같이 독립적으로 저장된다.At
블록(660)에서, 디바이스 로케이션 및 화상 정보가 저장된다. 일 실시예에서, 디바이스 로케이션 및 화상 정보는 저장 모듈(330)에 저장된다. 일 실시예에서, 디바이스 로케이션 및 화상 정보는 테이블에 저장되고 도 5a에 도시된 바와 같이 대응하는 화상에 링크된다. 다른 예에서, 디바이스 로케이션 및 화상 정보는 도 5b에 도시된 바와 같이 대응하는 화상에 결합되어 저장된다.At
도 7의 순서도는 본 발명의 일 실시예에 따라 화상을 표시하는 것을 도시한다. 블록(710)에서, 특정 화상이 식별된다. 일 실시예에서, 특정 화상은 화상 식별 필드(470)를 통해 식별된다.7 shows displaying an image in accordance with one embodiment of the present invention. At
블록(720)에서, 특정 화상에 대응하는 화상 정보가 검출된다. 일 실시예에서, 화상 정보는 화상의 수평 방위, 화상의 수직 방위, 및/또는 시야각을 포함한다. 일 실시예에서, 화상의 수평 방위, 화상의 수직 방위, 및 시야각은, 화상의 수평 방위 필드(420), 화상의 수직 방위 필드(430), 및 시야각 필드(440)에 각각 기록된다.At
일 실시예에서, 화상 정보는 특정 화상에 대응하는 레코드(400)를 통해 검출된다.In one embodiment, picture information is detected via a
블록(730)에서, 디바이스의 로케이션 정보가 검출된다. 일 실시예에서, 디 바이스의 로케이션은, 특정 화상이 디바이스에 의해 캡쳐되는 때의 로케이션에 대응한다. 일 실시예에서, 로케이션 정보는 레코드(400)내에서 발견된다.At
블록(740)에서, 이용가능 디스플레이 디바이스가 검출된다. 일 실시예에서, 하나의 디스플레이 디바이스가 검출된다. 다른 실시예에서, 복수의 디스플레이 디바이스가 검출된다. 일 실시예에서, 디스플레이 디바이스는 렌더 모듈(310)에 결합된다.At
일 실시예에서, 디스플레이 디바이스는 디스플레이 스크린상에 화상을 시각적으로 표시하도록 구성된 디스플레이 스크린이다. 다른 실시예에서, 디스플레이 디바이스는 유형의 매체상에 인쇄된 자료를 생성하도록 구성된 프린터 디바이스이다.In one embodiment, the display device is a display screen configured to visually display an image on the display screen. In another embodiment, the display device is a printer device configured to generate printed material on a tangible medium.
블록(750)에서, 디스플레이 디바이스상에 특정 화상을 표시하기 위해 영역이 선택된다. 일 실시예에서, 영역은 디바이스의 로케이션 정보에 기초하여 선택된다. 다른 실시예에서, 영역은 화상 정보에 기초하여 선택된다. At
블록(760)에서, 화상은 디스플레이 디바이스상에서 선택된 영역내에 표시된다. 일 실시예에서, 하나의 디스플레이 스크린의 경우에, 화상은, 화상 정보 및/또는 디바이스 로케이션에 기초하여 하나의 디스플레이 스크린상에 선택된 영역내에 표시된다. 예컨대, 디스플레이 스크린의 하부 우측 코너는 식별된 화상에 대한 화상 정보에 기초하여 표시하기 위해 이용된다.At
다른 실시예에서, 복수의 디스플레이 스크린의 경우에, 화상 정보 및/또는 디바이스 로케이션에 기초하여 특정 디스플레이 스크린상에 화상이 표시된다. 예 컨대, 서로간에 이웃하여 위치하는 2개의 디스플레이에서, 좌측에 위치하는 디스플레이는 화상 정보에 기초하여 식별된 화상을 표시하기 위해 이용된다.In another embodiment, in the case of a plurality of display screens, an image is displayed on a particular display screen based on the image information and / or device location. For example, in two displays located next to each other, a display located on the left side is used to display an image identified based on the image information.
다른 실시예에서, 프린터 디바이스를 갖는 유형의 매체의 경우에, 화상 정보 및/또는 디바이스 로케이션에 기초하여 유형의 매체상의 선택된 영역내에 화상이 표시된다. 예컨대, 유형의 매체의 하부 우측 코너는 식별된 화상에 대한 화상 정보에 기초하여 표시하기 위해 이용된다. In another embodiment, in the case of tangible media having a printer device, an image is displayed in a selected area on the tangible media based on the image information and / or device location. For example, the lower right corner of the tangible medium is used to display based on the image information for the identified image.
도 8의 순서도는 본 발명의 다른 실시예에 따라 화상을 표시하는 것을 도시한다. 블록(810)에서, 연관된 화상이 식별된다. 일 실시예에서, 연관된 화상은, 각 개별적 화상을 캡쳐할 때 디바이스의 로케이션 정보의 근접성에 기초하여 판정된다. 일례에서, 디바이스 로케이션의 근접성은 연관된 화상을 식별하기 위한 임계값을 결정하기 위해 커스토마이즈될 수 있다.8 shows displaying an image according to another embodiment of the present invention. At
다른 실시예에서, 사용자는 연관된 화상을 식별한다.In another embodiment, the user identifies the associated picture.
블록(820)에서, 각각의 연관된 화상과 대응하는 화상 정보가 검출된다. 일 실시예에서, 화상 정보는 화상의 수평 방위, 화상의 수직 방위 및/또는 시야각을 포함한다. 일 실시예에서, 화상의 수평 방위, 화상의 수직 방위, 및 시야각은, 화상의 수평 방위 필드(420), 화상의 수직 방위 필드(430), 및 시야각 필드(440)에 각각 기록된다. At
일 실시예에서, 화상 정보는 특정 화상과 대응하는 레코드(400)를 통해 검출된다.In one embodiment, picture information is detected through a record 400 corresponding to a particular picture.
블록(830)에서, 이용가능 디스플레이 디바이스가 검출된다. 일 실시예에서, 하나의 디스플레이 디바이스가 검출된다. 다른 실시예에서, 복수의 디스플레이 디바이스가 검출된다. 일 실시예에서, 디스플레이 디바이스는 렌더 모듈(310)에 결합된다.At
일 실시예에서, 디스플레이 디바이스는 디스플레이 스크린상에 화상을 시각적으로 표시하도록 구성된 디스플레이 스크린이다. 다른 실시예에서, 디스플레이 디바이스는 유형의 매체상에 인쇄된 자료를 생성하도록 구성된 프린터 디바이스이다.In one embodiment, the display device is a display screen configured to visually display an image on the display screen. In another embodiment, the display device is a printer device configured to generate printed material on a tangible medium.
블록(840)에서, 제1 연관 화상이 디스플레이 디바이스내의 제1 영역에 표시된다. 일 실시예에서, 제1 연관 화상에 대응하는 화상 정보는 제1 영역을 결정한다. 다른 실시예에서, 제1 연관 화상의 화상 정보는, 제1 연관 화상을 표시하기 위해 어느 디스플레이 디바이스가 선택되어야 하는지를 결정한다.At
블록(850)에서, 제2 연관 화상이 디스플레이 디바이스내의 제2 영역에 표시된다. 일 실시예에서, 제2 연관 화상에 대응하는 화상 정보는 제2 영역을 결정한다. 다른 실시예에서, 제2 연관 화상의 화상 정보는, 제2 연관 화상을 표시하기 위해 어느 디스플레이 디바이스가 선택되어야 하는지를 결정한다.At
일 실시예에서, 제1 연관 화상 및 제2 연관 화상은, 제1 연관 화상 및 제2 연관 화상 모두에 대한 화상 정보를 비교하는 것에 기초하여 서로간에 관련되어 표시된다. 예컨대, 제1 연관 화상이 제2 연관 화상의 우측에 대해 수평 방위로 캡쳐되면, 제1 연관 화상은 제2 연관 화상의 우측에 대해 표시된다.In one embodiment, the first associated picture and the second associated picture are displayed in relation to each other based on comparing image information for both the first associated picture and the second associated picture. For example, if the first associated picture is captured in the horizontal orientation with respect to the right side of the second associated picture, the first associated picture is displayed with respect to the right side of the second associated picture.
다른 실시예에서, 제1 연관 화상 및 제2 연관 화상은, 공통 레퍼런스 포인트 에 관계된 제1 연관 화상 및 제2 연관 화상 모두에 대한 화상 정보를 비교하는 것에 기초하여 서로간에 관련되어 표시된다. 예컨대, 제1 연관 화상이 공통 레퍼런스 포인트위에서 수직 방위로 캡쳐되고 제2 연관 화상이 공통 레퍼런스 포인트 아래에서 수직 방위로 캡쳐되면, 다음에 제1 연관 화상은 제2 연관 화상의 우측 위에 표시된다.In another embodiment, the first associated picture and the second associated picture are displayed in relation to each other based on comparing image information for both the first associated picture and the second associated picture related to the common reference point. For example, if the first associated picture is captured in a vertical orientation above the common reference point and the second associated picture is captured in a vertical orientation below the common reference point, then the first associated picture is displayed above the right side of the second associated picture.
도 9는 복수의 디스플레이 디바이스상에 연관 화상의 표시를 도시하는 예시적인 도면이다. 일 실시예에서, 캡쳐된 화상의 스트림(950)은 복수의 디바이스상에 표시된다. 본 실시예에서, 캡쳐된 화상의 스트림(950)은 화상(960, 970, 980, 및 990)을 포함한다. 화상(960)은 화상(970) 이전에 캡쳐되고, 화상(970)은 화상(980) 이전에 캡쳐되고, 화상(980)은 화상(990) 이전에 캡쳐된다. 일 실시예에서, 화상(960, 970, 980, 및 990) 각각은 레코드(400)에 도시된 바와 같은 정보를 포함한다.9 is an exemplary diagram illustrating display of an associated image on a plurality of display devices. In one embodiment, the
일 실시예에서, 디스플레이 디바이스는 플레이스홀더(placeholder)(905)에 관계된 로케이션에 묘사된 디스플레이 디바이스(910, 920, 930, 및 940)를 포함한다. 다른 실시예에서, 디스플레이 디바이스(910, 920, 930, 및 940)는 하나의 디스플레이 디바이스내의 상이한 로케이션을 나타낸다.In one embodiment, the display device includes
일 실시예에서, 플레이스홀더(905)는 캡쳐된 화상(950)의 스트림을 기록하는 카메라 디바이스를 나타낸다. 다른 실시예에서, 플레이스홀더(950)는 캡쳐된 화상(950)의 스트림에 의해 이용되는 레퍼런스 포인트를 나타낸다.In one embodiment,
일 실시예에서, 화상(960)은 디스플레이 디바이스(940)상에 표시되고, 화 상(970)은 디스플레이(930)상에 표시되고, 화상(980)은 디스플레이(910)상에 표시되고, 화상(990)은 디스플레이(920)상에 표시된다. 본 실시예에서, 캡쳐된 화상의 스트림(950)은 임의의 순서도 캡쳐될 수 있다. 일 실시예에서, 화상(960, 970, 980 및 990)은 플레이스홀더(905)와 관련하여 시스템(300)에 따라 배열되고 표시된다. 예컨대, 화상(960, 970, 980 및 990)이 캡쳐되었을 때, 화상(940)은 화상(920)위에 위치하고, 화상(910)은 화상(920)의 좌측에 위치하고, 화상(930)은 화상(920)의 우측에 위치한다. 화상(960, 970, 980 및 990)이 캡쳐된 화상의 스트림(950)내에서 상이한 순서로 캡쳐됨에도 불구하고, 이들은 캡쳐되는 동안 그 위치에 기초하여 그 각각의 디스플레이에 위치된다.In one embodiment,
본 발명의 특정 실시예에 대한 전술한 상세한 설명은 예시 및 설명을 위한 목적으로 제시되었다. 본 발명은 다양한 여러 애플리케이션에 적용될 수 있다.The foregoing detailed description of specific embodiments of the invention has been presented for purposes of illustration and description. The invention can be applied to a variety of different applications.
이들은 개시된 실시예에 따른 본 발명에 대해 소모적이거나 제한적인 것은 아니며, 당연히 다수의 수정 및 변형이 전술한 교시에 따라 가능하다. 실시예는 본 발명의 원리 및 그 실제적 애플리케이션을 설명하기 위해 선택되고 기술되었고, 이에 따라 본 기술분야의 숙련자는 본 발명 및 고려되는 특정한 이용에 적합한 다양한 수정을 갖는 여러 실시예를 가장 잘 이용할 수 있다. 본 발명의 범주는 여기 부가된 특허청구범위 및 그 균등물에 의해서만 한정된다.These are not exhaustive or limiting to the invention according to the disclosed embodiments, and naturally many modifications and variations are possible in accordance with the above teachings. The embodiments have been selected and described in order to illustrate the principles of the invention and its practical applications, and thus those skilled in the art can best utilize various embodiments having various modifications suitable for the invention and the particular uses contemplated. . It is intended that the scope of the invention only be limited by the claims appended hereto and their equivalents.
Claims (31)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/772,208 US20050168597A1 (en) | 2004-02-04 | 2004-02-04 | Methods and apparatuses for formatting and displaying content |
US10/772,208 | 2004-02-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20060130647A true KR20060130647A (en) | 2006-12-19 |
Family
ID=34808609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020067015730A KR20060130647A (en) | 2004-02-04 | 2005-01-27 | Methods and apparatuses for formatting and displaying content |
Country Status (5)
Country | Link |
---|---|
US (1) | US20050168597A1 (en) |
EP (1) | EP1730948A2 (en) |
JP (1) | JP2007526680A (en) |
KR (1) | KR20060130647A (en) |
WO (1) | WO2005076913A2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4237562B2 (en) * | 2003-07-07 | 2009-03-11 | 富士フイルム株式会社 | Device control system, device control method and program |
TW201122711A (en) * | 2009-12-23 | 2011-07-01 | Altek Corp | System and method for generating an image appended with landscape information |
KR101641513B1 (en) * | 2010-10-22 | 2016-07-21 | 엘지전자 주식회사 | Image photographing apparatus of mobile terminal and method thereof |
JP7240241B2 (en) * | 2019-04-24 | 2023-03-15 | キヤノン株式会社 | Imaging device and its control method, attitude angle calculation device, program, storage medium |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3658659B2 (en) * | 1995-11-15 | 2005-06-08 | カシオ計算機株式会社 | Image processing device |
JP3906938B2 (en) * | 1997-02-18 | 2007-04-18 | 富士フイルム株式会社 | Image reproduction method and image data management method |
JP4296451B2 (en) * | 1998-06-22 | 2009-07-15 | 株式会社日立製作所 | Image recording device |
US6618076B1 (en) * | 1999-12-23 | 2003-09-09 | Justsystem Corporation | Method and apparatus for calibrating projector-camera system |
JP4366801B2 (en) * | 1999-12-28 | 2009-11-18 | ソニー株式会社 | Imaging device |
US7319490B2 (en) * | 2000-01-21 | 2008-01-15 | Fujifilm Corporation | Input switch with display and image capturing apparatus using the same |
US6914626B2 (en) * | 2000-02-21 | 2005-07-05 | Hewlett Packard Development Company, L.P. | Location-informed camera |
US6591068B1 (en) * | 2000-10-16 | 2003-07-08 | Disney Enterprises, Inc | Method and apparatus for automatic image capture |
US20030030733A1 (en) * | 2001-08-08 | 2003-02-13 | Seaman Mark D. | System and method for synchronization of media data |
-
2004
- 2004-02-04 US US10/772,208 patent/US20050168597A1/en not_active Abandoned
-
2005
- 2005-01-27 EP EP05712840A patent/EP1730948A2/en not_active Withdrawn
- 2005-01-27 WO PCT/US2005/003543 patent/WO2005076913A2/en not_active Application Discontinuation
- 2005-01-27 KR KR1020067015730A patent/KR20060130647A/en not_active Application Discontinuation
- 2005-01-27 JP JP2006552256A patent/JP2007526680A/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
EP1730948A2 (en) | 2006-12-13 |
US20050168597A1 (en) | 2005-08-04 |
WO2005076913A2 (en) | 2005-08-25 |
WO2005076913A3 (en) | 2007-03-22 |
JP2007526680A (en) | 2007-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8400490B2 (en) | Framing an object for video conference | |
EP2777021B1 (en) | Hands-free augmented reality for wireless communication devices | |
JP4676852B2 (en) | Content transmission device | |
US20060077262A1 (en) | Imaging system and imaging method | |
CN101938604A (en) | Image processing method and camera | |
JP5229791B2 (en) | PHOTO MAPPING METHOD AND SYSTEM, PROGRAM, AND STORAGE MEDIUM | |
US9836826B1 (en) | System and method for providing live imagery associated with map locations | |
US20120050561A1 (en) | Image processing apparatus, control method thereof, and program | |
KR20150023406A (en) | Enhancing captured data | |
US8768377B2 (en) | Portable electronic device and method of providing location-based information associated with an image | |
JP2010220189A (en) | Image capturing apparatus and moving image distribution system | |
WO2019234953A1 (en) | Information processing apparatus, information processing method, and program | |
JP4543694B2 (en) | COMMUNICATION SYSTEM, COMMUNICATION SYSTEM SERVER, AND SERVER PROCESSING METHOD | |
JP2014095979A (en) | Electronic device, image data processing method and program | |
KR20060130647A (en) | Methods and apparatuses for formatting and displaying content | |
KR102168110B1 (en) | Camera system | |
US20110149089A1 (en) | System and method for generating an image appended with landscape information | |
JP2010068247A (en) | Device, method, program and system for outputting content | |
JP2013182450A (en) | Location management program and location management device | |
KR20120080379A (en) | Method and apparatus of annotating in a digital camera | |
KR20060132679A (en) | Methods and apparatuses for broadcasting information | |
JP2004274735A (en) | Imaging apparatus and image processing apparatus | |
JP2014158244A (en) | Image processing device, image processing method, and image processing program | |
TWI828302B (en) | Shooting methods and shooting equipment | |
JP6743441B2 (en) | Image collection device, display system, image collection method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |