KR20060130647A - Methods and apparatuses for formatting and displaying content - Google Patents

Methods and apparatuses for formatting and displaying content Download PDF

Info

Publication number
KR20060130647A
KR20060130647A KR1020067015730A KR20067015730A KR20060130647A KR 20060130647 A KR20060130647 A KR 20060130647A KR 1020067015730 A KR1020067015730 A KR 1020067015730A KR 20067015730 A KR20067015730 A KR 20067015730A KR 20060130647 A KR20060130647 A KR 20060130647A
Authority
KR
South Korea
Prior art keywords
picture
image
location
parameter
display
Prior art date
Application number
KR1020067015730A
Other languages
Korean (ko)
Inventor
닐 매노위트즈
로버트 사토
브라이언 비버
클레이 피셔
에릭 에드워드스
Original Assignee
소니 일렉트로닉스 인코포레이티드
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 일렉트로닉스 인코포레이티드, 소니 가부시끼 가이샤 filed Critical 소니 일렉트로닉스 인코포레이티드
Publication of KR20060130647A publication Critical patent/KR20060130647A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9206Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a character code signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3226Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of identification information or the like, e.g. ID code, index, title, part of an image, reduced-size image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3253Position information, e.g. geographical position at time of capture, GPS data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3254Orientation, e.g. landscape or portrait; Location or order of the image data, e.g. in memory

Abstract

In one embodiment, the methods and apparatuses for formatting and displaying content capture an image with a device; detect an image parameters related to the image; store the image parameters such that the image parameters are available for access at a later time; and display the image in a display location based on at least one of the image parameters.

Description

콘텐츠를 포맷하고 표시하기 위한 방법 및 장치{METHODS AND APPARATUSES FOR FORMATTING AND DISPLAYING CONTENT}METHODS AND APPARATUSES FOR FORMATTING AND DISPLAYING CONTENT}

본 발명은 일반적으로 콘텐츠를 포맷하고 표시하기 위한 것이며, 특히, 콘텐츠의 로케이션에 기초하여 콘텐츠를 동기화하고 식별하는 것에 관한 것이다.The present invention generally relates to formatting and displaying content, and more particularly, to synchronizing and identifying content based on the location of the content.

사용자에 의해 이용되는 콘텐츠가 급증하고 있다. 이러한 콘텐츠는 전형적으로 비디오 트랙, 그래픽 화상, 및 사진등을 포함한다. 여러 경우에, 사용자에 의해 이용되는 콘텐츠는, 콘텐츠의 각 부분간의 관계를 완전히 실현하지 않고 저장된다. The content used by the user is increasing rapidly. Such content typically includes video tracks, graphic pictures, photographs, and the like. In many cases, the content used by the user is stored without fully realizing the relationship between each part of the content.

예컨대, 화상은 전형적으로 화상의 시각적 품질에 유의하여 캡쳐된다. 불행하게도, 화상의 환경을 묘사하는 각 화상에 관한 부가적인 고유 정보는 캡쳐되지 않는다.For example, an image is typically captured paying attention to the visual quality of the image. Unfortunately, additional unique information about each picture depicting the environment of the picture is not captured.

이러한 증가하는 콘텐츠의 양을 관리하는 것은 대다수의 사용자에게 난제이다. 콘텐츠 양이 증가함에 따라, 각 화상의 환경에 연관된 부가적인 고유 정보를 추적하는 것은 더 곤란하게 된다. Managing this increasing amount of content is a challenge for the majority of users. As the amount of content increases, it becomes more difficult to track additional unique information related to the environment of each picture.

<발명의 요약>Summary of the Invention

일 실시예에서, 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치는, 디바이스 로 화상을 캡쳐하고, 화상과 관련된 화상 파라미터를 검출하고, 화상 파라미터가 나중에 액세스에 이용 가능하도록 화상 파라미터를 저장하고, 화상 파라미터 중 적어도 하나에 기초하여 디스플레이 로케이션에 화상을 표시하는 것을 포함한다.In one embodiment, a method and apparatus for formatting and displaying content includes capturing images with a device, detecting image parameters associated with the image, storing the image parameters so that the image parameters are available for later access, and the image parameters. Displaying an image at a display location based on at least one of the following.

본 명세서 내에 결합되고, 본 명세서의 일부를 구성하는 첨부 도면은 콘텐츠를 동기화하고 식별하기 위한 방법 및 장치에 대한 일 실시예를 도시하고 설명한다. The accompanying drawings, which are incorporated in and constitute a part of this specification, illustrate and describe one embodiment of a method and apparatus for synchronizing and identifying content.

도 1은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치가 구현되는 환경을 도시하는 도면.1 illustrates an environment in which a method and apparatus for formatting and displaying content are implemented.

도 2는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치가 구현되는 일 실시예를 도시하는 간략화된 블록도.2 is a simplified block diagram illustrating one embodiment in which a method and apparatus for formatting and displaying content are implemented.

도 3은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예에 따른 시스템을 도시하는 간략화된 블록도.3 is a simplified block diagram illustrating a system according to one embodiment of a method and apparatus for formatting and displaying content.

도 4는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치로 이용하기 위한 예시적인 레코드.4 is an exemplary record for use with a method and apparatus for formatting and displaying content.

도 5a는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예에 따른 데이터 구조.5A is a data structure according to one embodiment of a method and apparatus for formatting and displaying content.

도 5b는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 다른 실시예에 따른 데이터 구조.5B is a data structure according to another embodiment of a method and apparatus for formatting and displaying content.

도 6은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예에 따른 순서도.6 is a flow chart according to one embodiment of a method and apparatus for formatting and displaying content.

도 7은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예에 따른 순서도.7 is a flow chart according to one embodiment of a method and apparatus for formatting and displaying content.

도 8은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예에 따른 순서도.8 is a flow chart according to one embodiment of a method and apparatus for formatting and displaying content.

도 9는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예를 도시하는 예시적인 도면.9 is an illustrative diagram illustrating one embodiment of a method and apparatus for formatting and displaying content.

콘텐츠를 포맷하고 표시하기 위한 방법 및 장치에 대한 다음의 상세한 설명은 첨부 도면을 참조한다. 상세한 설명은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치를 제한하도록 의도되지 않는다. 대신에, 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 범주는 부가된 특허청구범위 및 그 균등물에 의해 한정된다. 본 기술분야의 숙련자는 본 발명에 따라 다수의 여러 구현례가 가능하다는 것을 알 수 있다. DETAILED DESCRIPTION The following detailed description of methods and apparatus for formatting and displaying content refers to the accompanying drawings. The detailed description is not intended to limit the methods and apparatus for formatting and displaying content. Instead, the scope of methods and apparatus for formatting and displaying content is defined by the appended claims and their equivalents. Those skilled in the art will appreciate that many different embodiments are possible in accordance with the present invention.

"콘텐츠"라 함은, 디지털 또는 아날로그 전자적 형태로 구현되는 화상, 비디오, 그래픽등과 같은 데이터를 포함하는 것이다."Content" includes data such as pictures, videos, graphics, etc., which are implemented in digital or analog electronic form.

"전자 디바이스"라 함은, 비디오 카메라, 정지 화상 카메라, 화상 캡쳐 모듈을 구비한 셀룰러 폰, 화상 캡쳐 모듈을 구비한 PDA 및 화상 캡쳐 디바이스와 같은 디바이스를 포함하는 것이다.By "electronic device" is meant to include devices such as video cameras, still picture cameras, cellular phones with image capture modules, PDAs with image capture modules and image capture devices.

도 1은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치가 구현되는 환경을 도시하는 도면이다. 환경은 전자 디바이스(110)(예컨대, 컴퓨터, PDA, 디지털 카메라, 비디오 카메라와 같은 클라이언트 디바이스로서 동작하도록 구성된 컴퓨팅 플랫폼), 사용자 인터페이스(115), 네트워크(120)(예컨대, 로컬 영역 네트워크, 홈 네트워크, 인터넷), 및 서버(130)(예컨대, 서버로서 동작하도록 구성된 컴퓨팅 플랫폼)을 포함한다.1 is a diagram illustrating an environment in which a method and apparatus for formatting and displaying content are implemented. The environment may include electronic device 110 (eg, a computing platform configured to operate as a client device such as a computer, PDA, digital camera, video camera), user interface 115, network 120 (eg, local area network, home network). , The Internet), and a server 130 (eg, a computing platform configured to operate as a server).

일 실시예에서, 하나 이상의 사용자 인터페이스(115) 콤포넌트는 전자 디바이스(110)(예컨대, PDA 전자기기(예컨대, Sony 사에 의해 제조된 Clie®등)와 같이 동일 하우징내의 키패드 및 비디오 디스플레이 스크린 입출력 인터페이스)와 통합되어 구성된다. 다른 실시예에서, 하나 이상의 사용자 인터페이스(115) 콤포넌트(예컨대, 키보드, 포인팅 디바이스(마우스, 트랙볼등), 마이크로폰, 스피커, 디스플레이, 카메라)는 전자 디바이스(110)로부터 물리적으로 분리되고, 종래와 같이 전자 디바이스(110)에 결합된다. 사용자는 인터페이스(115)를 이용하여, 전자 디바이스(110), 서버(130), 또는 네트워크(120)를 통해 결합된 원격 저장 디바이스(도시되지 않음)에 저장된 콘텐츠 및 애플리케이션을 액세스하고 제어한다.In one embodiment, one or more user interface 115 components are keypads and video display screen input / output interfaces in the same housing, such as electronic device 110 (eg, PDA electronics (eg, Clie® manufactured by Sony Corporation, etc.). It is integrated with In another embodiment, one or more user interface 115 components (eg, keyboard, pointing device (mouse, trackball, etc.), microphone, speaker, display, camera) are physically separated from electronic device 110, as conventionally Coupled to electronic device 110. The user uses the interface 115 to access and control content and applications stored on the electronic device 110, the server 130, or a remote storage device (not shown) coupled via the network 120.

본 발명에 따라, 이하에서 콘텐츠를 포맷하고 표시하는 실시예는 전자 디바이스(110), 서버(130)내의 전자 프로세서에 의해 실행되거나, 전자 디바이스(110) 및 서버(130)에서 함께 동작하는 프로세서들에 의해 실행된다. 서버(130)는 도 1에서 단일 컴퓨팅 플랫폼으로 도시되지만, 다른 경우에는 서버로서 동작하는 2개 이상이 상호 접속된 컴퓨팅 플랫폼으로 도시된다.According to the present invention, an embodiment of formatting and displaying content in the following is executed by an electronic processor in the electronic device 110, the server 130, or processors operating together in the electronic device 110 and the server 130. Is executed by Although server 130 is shown in FIG. 1 as a single computing platform, in other cases two or more are shown as interconnected computing platforms that act as servers.

콘텐츠를 포맷하고 표시하기 위한 방법 및 장치는, 화상과 연관된 파라미터 에 기초하여 화상이 특정 포맷 및 로케이션에서 표시되는 애플리케이션의 예시적인 실시예와 관련해서 도시된다. 일 실시예에서, 화상은 전자 디바이스(110) 및 네트워크(120)를 통해 이용된다. 다른 실시예에서, 화상은 서버(130) 및/또는 전자 디바이스(110)내에 위치하는 애플리케이션에 의해 포맷되고 표시된다.A method and apparatus for formatting and displaying content is shown in connection with an exemplary embodiment of an application in which an image is displayed in a particular format and location based on parameters associated with the image. In one embodiment, the image is used via electronic device 110 and network 120. In another embodiment, the image is formatted and displayed by an application located within server 130 and / or electronic device 110.

일 실시예에서, 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치는 자동적으로 화상과 연관된 레코드를 생성한다. 일례에서, 레코드내의 정보는, 대응하는 화상과 연관된 미리 저장된 레코드에 기초하여 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치에 의해 자동적으로 완성된다. In one embodiment, a method and apparatus for formatting and displaying content automatically creates a record associated with the picture. In one example, the information in the record is automatically completed by a method and apparatus for formatting and displaying the content based on a pre-stored record associated with the corresponding picture.

도 2는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치가 구현되는 예시적인 아키텍쳐를 도시하는 간략화된 도면이다. 예시적인 아키텍쳐는 복수의 전자 디바이스(110), 서버 디바이스(130), 및 전자 디바이스(110)를 서버(130) 및 각각의 전자 디바이스(110)에 서로 접속하는 네트워크(120)를 포함한다. 복수의 전자 디바이스(110)는 전자 프로세서(208)에 결합된, RAM과 같은 컴퓨터 판독가능 매체(209)를 포함하도록 각각 구성된다. 프로세서(208)는 컴퓨터 판독가능 매체(209)에 저장된 프로그램 명령을 실행한다. 고유한 사용자는 도 1을 참조하여 기술된 바와 같이 인터페이스(115)를 통해 각각의 전자 디바이스(110)를 동작시킨다.2 is a simplified diagram illustrating an example architecture in which a method and apparatus for formatting and displaying content are implemented. An example architecture includes a plurality of electronic devices 110, server device 130, and a network 120 that connects the electronic devices 110 to the server 130 and to each electronic device 110. The plurality of electronic devices 110 are each configured to include a computer readable medium 209, such as RAM, coupled to the electronic processor 208. Processor 208 executes program instructions stored on computer readable medium 209. The unique user operates each electronic device 110 via the interface 115 as described with reference to FIG. 1.

서버 디바이스(130)는 컴퓨터 판독가능 매체(212)에 결합된 프로세서(211)을 포함한다. 일 실시예에서, 서버 디바이스(130)는, 데이터베이스(240)과 같은, 제2 데이터 저장 엘리먼트와 같은 하나 이상의 외부 또는 내부 디바이스에 결합되지만 이에 한정되는 것은 아니다.Server device 130 includes a processor 211 coupled to computer readable medium 212. In one embodiment, server device 130 is coupled to, but is not limited to, one or more external or internal devices, such as a second data storage element, such as database 240.

일례에서, 프로세서(208 및 211)는 캘리포니아, 산타클라라에 있는 인텔사에 의해 제조된다. 다른 예에서, 다른 마이크로프로세서도 이용된다.In one example, processors 208 and 211 are manufactured by Intel Corporation of Santa Clara, California. In other examples, other microprocessors are also used.

복수의 클라이언트 디바이스(110) 및 서버(130)는 콘텐츠를 포맷하고 표시하는 커스토마이즈된(customized) 애플리케이션을 위한 명령을 포함한다. 일 실시예에서, 복수의 컴퓨터-판독가능 매체(209 및 212)는 부분적으로 커스토마이즈된 애플리케이션을 포함한다. 부가적으로, 복수의 클라이언트 디바이스(110) 및 서버(130)는 커스토마이즈된 애플리케이션으로 이용하기 위한 전자 메시지를 수신 및 송신하도록 구성된다. 유사하게, 네트워크(120)는 커스토마이즈된 애플리케이션으로 이용하기 위한 전자 메시지를 송신하도록 구성된다.The plurality of client devices 110 and server 130 include instructions for customized applications that format and display content. In one embodiment, the plurality of computer-readable media 209 and 212 include partially customized applications. Additionally, the plurality of client devices 110 and server 130 are configured to receive and send electronic messages for use with customized applications. Similarly, network 120 is configured to send an electronic message for use with a customized application.

하나 이상의 사용자 애플리케이션은 메모리(209), 메모리(211)내에 저장되고, 또는 단일 사용자 애플리케이션은 부분적으로 하나의 메모리(209) 및 부분적으로 메모리(211)에 저장된다. 일례에서, 저장된 사용자 애플리케이션은, 저장 로케이션에 무관하게, 이하 기술되는 실시예를 이용하여 결정되는 것과 같은 콘텐츠를 포맷하고 표시하는 것에 기초하여 커스토마이즈될 수 있다. One or more user applications are stored in memory 209, memory 211, or a single user application is partially stored in one memory 209 and partially memory 211. In one example, the stored user application can be customized based on formatting and displaying content as determined using the embodiments described below, regardless of the storage location.

도 3은 포맷 및 표시 시스템(300)의 실시예를 도시한다. 일 실시예에서, 시스템(300)은 서버(130)내에 구현된다. 다른 실시예에서, 시스템(300)은 전자 디바이스(110)내에 구현된다. 다른 실시예에서, 시스템(300)은 전자 디바이스(110) 및 서버(130) 모두에 구현된다. 3 illustrates an embodiment of a format and display system 300. In one embodiment, system 300 is implemented within server 130. In another embodiment, system 300 is implemented within electronic device 110. In another embodiment, system 300 is implemented in both electronic device 110 and server 130.

일 실시예에서, 시스템(300)은 렌더(render) 모듈(310), 로케이션 모듈(320), 저장 모듈(330), 인터페이스 모듈(340), 제어 모듈(350), 및 캡쳐 모듈을 포함한다.In one embodiment, system 300 includes a render module 310, a location module 320, a storage module 330, an interface module 340, a control module 350, and a capture module.

일 실시예에서, 제어 모듈(350)은, 렌더 모듈(310), 로케이션 모듈(320), 저장 모듈(330), 인터페이스 모듈(340), 및 캡쳐 모듈(360)과 통신한다. 일 실시예에서, 제어 모듈(350)은, 태스크, 요청 및 렌더 모듈(310), 로케이션 모듈(320), 저장 모듈(330), 인터페이스 모듈(340), 및 캡쳐 모듈(360)간의 통신을 조정한다. In one embodiment, the control module 350 communicates with the render module 310, the location module 320, the storage module 330, the interface module 340, and the capture module 360. In one embodiment, the control module 350 coordinates communications between tasks, request and render modules 310, location modules 320, storage modules 330, interface modules 340, and capture modules 360. do.

일 실시예에서, 렌더 모듈(310)은 화상 데이터 및 로케이션 데이터에 기초하여 화상을 표시한다. 다른 실시예에서, 렌더 모듈(310)은 각 화상의 화상 데이터 및 로케이션 데이터에 기초하여 복수의 화상을 표시한다. 일 실시예에서, 화상 데이터는 캡쳐 모듈(360)에 의해 식별된다. 일 실시예에서, 화상 데이터는 JPEG 파일의 형태이다. 다른 예에서, 화상 데이터는 RAW 파일의 형태이다. 다른 예에서, 화상 데이터는 TIFF 파일의 형태이다.In one embodiment, the render module 310 displays an image based on the image data and location data. In another embodiment, the render module 310 displays a plurality of images based on the image data and location data of each image. In one embodiment, image data is identified by the capture module 360. In one embodiment, the image data is in the form of a JPEG file. In another example, the image data is in the form of a RAW file. In another example, the image data is in the form of a TIFF file.

일 실시예에서, 로케이션 데이터는 로케이션 모듈(320)에 의해 식별된다. 일례에서, 로케이션 데이터는, 디바이스의 스트릿 어드레스(street address)와 같은 디바이스의 특정 로케이션을 나타낸다. 다른 예에서, 로케이션 데이터는 또한 수평선, 시야선등과 같은 디바이스의 위치 방위를 나타낸다. 다른 실시예에서, 로케이션은 또한, 뷰파인더(viewfinder)에 의해 캡쳐되는 영역, 렌즈의 줌등과 같은, 뷰파인더 또는 디바이스를 통해 보여지는 화상 로케이션을 나타낸다.In one embodiment, location data is identified by location module 320. In one example, location data represents a specific location of a device, such as a street address of the device. In another example, location data also indicates a device's location orientation, such as horizontal lines, line of sight, and the like. In another embodiment, the location also represents an image location viewed through the viewfinder or device, such as an area captured by the viewfinder, a zoom of the lens, and the like.

일 실시예에서, 로케이션 모듈(320)은 로케이션 데이터를 처리한다. 일 실시예에서, 로케이션 데이터는 스트릿 세분성(granularity)에 의해 스트릿상에서 디바이스의 광범위한 로케이션을 제공하는 범용 로케이션 데이터를 포함한다. 다른 실시예에서, 로케이션 데이터는 디바이스의 뷰파인더를 통해 보여지는 특정 로케이션 데이터를 제공하는 화상 로케이션 데이터를 포함한다. In one embodiment, location module 320 processes location data. In one embodiment, the location data includes general purpose location data that provides a broad location of the device on the street by street granularity. In another embodiment, the location data includes image location data that provides specific location data viewed through the device's viewfinder.

일 실시예에서, 범용 로케이션 데이터는 글로벌 포지셔닝 시스템(GPS)에 의해 수집된다. 본 실시예에서, GPS 시스템은 디바이스의 로케이션을 감지하고, 디바이스의 위치를 정할 수 있다. 다른 실시예에서, 범용 로케이션 데이터는, 디바이스의 로케이션을 제공할 수 있는 복수의 셀룰러 폰 수신기에 의해 수집된다.In one embodiment, general purpose location data is collected by a global positioning system (GPS). In this embodiment, the GPS system can detect the location of the device and locate the device. In another embodiment, general purpose location data is collected by a plurality of cellular phone receivers that can provide a location of the device.

일 실시예에서, 화상 로케이션 데이터는, 뷰파인더가 향하는 방향 및 뷰파인더에 나타나는 정보의 양을 제공하는 디바이스내의 적어도 하나의 센서에 의해 공급된다. 일례에서, 디바이스는 뷰파인더의 방향을 감지하고, 정북 방향에 따라 조정된 좌표를 통해 이 방향을 표시한다. 다른 예에서, 디바이스는 디바이스의 현재 초점 길이를 감지하고, 뷰파인더에 의해 이용가능한 정보의 양을 결정한다.In one embodiment, the image location data is supplied by at least one sensor in the device that provides the direction the viewfinder is facing and the amount of information that appears in the viewfinder. In one example, the device senses the direction of the viewfinder and displays this direction through coordinates adjusted according to the true north direction. In another example, the device senses the current focal length of the device and determines the amount of information available by the viewfinder.

일 실시예에서, 로케이션 모듈(320)은 범용 로케이션 데이터 및 시스템(300)에 대한 특정 화상과 연관된 화상 로케이션 데이터를 공급한다.In one embodiment, location module 320 supplies general location data and image location data associated with a particular image for system 300.

일 실시예에서, 저장 모듈(330)은 특정 콘텐츠와 연관된 로케이션 데이터를 포함하는 레코드를 저장한다. 다른 실시예에서, 저장 모듈(330)은 또한 레코드와 연관된 특정 콘텐츠를 저장한다.In one embodiment, the storage module 330 stores a record that includes location data associated with the particular content. In another embodiment, the storage module 330 also stores certain content associated with the record.

일 실시예에서, 인터페이스 모듈(340)은 전자 디바이스(110) 중 하나로부터 특정 기능을 위한 요청을 수신한다. 예컨대, 일례에서, 전자 디바이스는 시스템(300)을 통해 다른 디바이스로부터 콘텐츠를 요청한다. 다른 실시예에서, 인터페이스 모듈(340)은 디바이스의 사용자로부터 요청을 수신한다. 다른 실시예에서, 인터페이스 모듈(340)은 콘텐츠와 연관된 레코드내에 포함된 정보를 표시한다.In one embodiment, the interface module 340 receives a request for a particular function from one of the electronic devices 110. For example, in one example, the electronic device requests content from another device via system 300. In another embodiment, the interface module 340 receives a request from a user of the device. In another embodiment, the interface module 340 displays the information included in the record associated with the content.

일 실시예에서, 캡쳐 모듈(360)은 시스템(300)에 의해 이용되는 특정 화상을 식별한다. 일 실시예에서, 캡쳐 모듈(320)은 특정 화상을 식별한다. 다른 실시예에서, 캡쳐 모듈(320)은 디바이스에 의해 캡쳐된 특정 화상을 처리한다.In one embodiment, capture module 360 identifies the particular image used by system 300. In one embodiment, capture module 320 identifies a particular image. In another embodiment, capture module 320 processes a particular image captured by the device.

도 3의 시스템(300)은 예시적인 목적으로 도시되었고, 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 단지 일 실시예일 뿐이다. 부가적인 모듈이 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 범주를 벗어남이 없이 시스템(300)에 부가될 수 있다. 유사하게, 모듈은 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 범주를 벗어나지 않고 조합되거나 제거될 수 있다.The system 300 of FIG. 3 is shown for illustrative purposes and is only one embodiment of a method and apparatus for formatting and displaying content. Additional modules may be added to the system 300 without departing from the scope of methods and apparatus for formatting and displaying content. Similarly, modules may be combined or removed without departing from the scope of methods and apparatus for formatting and displaying content.

도 4는 시스템(300)에서 사용하기 위한 예시적인 레코드(400)를 도시한다. 레코드(400)는 특정 콘텐츠와 연관되어 있다. 몇몇 실시예에서, 레코드(400)는, 디바이스 범용 로케이션 필드(410), 화상의 수평 방위 필드(420), 화상의 수직 방위 필드(430), 시야각 필드(440), 연관된 화상 필드(450), 공통 레퍼런스 포인트 필드(460), 화상 식별 필드(470), 및 물체의 거리 필드(480)를 포함한다.4 shows an example record 400 for use in system 300. Record 400 is associated with specific content. In some embodiments, record 400 includes device general location field 410, horizontal orientation field 420 of image, vertical orientation field 430 of image, viewing angle field 440, associated image field 450, The common reference point field 460, the image identification field 470, and the distance field 480 of the object.

일 실시예에서, 디바이스의 범용 로케이션 필드(410)는 대응하는 화상을 캡쳐하는 동안 디바이스의 로케이션을 나타낸다. 일 실시예에서, 디바이스의 로케이션은 분 및 초와 같은 지리적 좌표로 표현된다. 다른 실시예에서, 디바이스의 로케이션은 스트릿 어드레스 또는 어트랙션(attraction)으로 표현된다.In one embodiment, the device's universal location field 410 represents the device's location while capturing the corresponding image. In one embodiment, the location of the device is expressed in geographic coordinates such as minutes and seconds. In another embodiment, the location of the device is represented by a street address or attraction.

일 실시예에서, 화상의 수평 방위 필드(420)는 대응하는 화상의 수평 방위를 나타낸다. 일 실시예에서, 수평 방위는 정북방향으로부터 도(degree)에 의해 표현 된다.In one embodiment, the horizontal orientation field 420 of the image represents the horizontal orientation of the corresponding image. In one embodiment, the horizontal orientation is represented by degrees from the true north direction.

일 실시예에서, 화상의 수직 방위 필드(430)는 대응하는 화상의 수직 방위를 나타낸다. 일 실시예에서, 수직 방향은 수평선으로부터 도에 의해 표현된다.In one embodiment, the vertical orientation field 430 of the image represents the vertical orientation of the corresponding image. In one embodiment, the vertical direction is represented by degrees from the horizontal line.

일 실시예에서, 시야각 필드(440)는 대응하는 화상내에서 캡쳐된 전체 화상 영역을 나타낸다. 예컨대, 시야각은 일 실시예에서 줌 또는 확대량에 의해 표현된다.In one embodiment, the viewing angle field 440 represents the entire image area captured within the corresponding image. For example, the viewing angle is represented by the zoom or magnification in one embodiment.

일 실시예에서, 디바이스의 범용 로케이션 필드(410), 화상의 수평 방위 필드(420), 화상의 수직 방위 필드(430), 및 시야각 필드(440)는 대응하는 화상을 캡쳐하는 동안 디바이스에 의해 캡쳐된다. 조합에 있어서, 디바이스의 범용 로케이션 필드(410), 화상의 수평 방위 필드(420), 화상의 수직 방위 필드(430), 및 시야각 필드(440)와 연관된 파라미터는, 기록된 유사한 파라미터를 갖는 다른 화상과 비교하여 대응하는 화상을 충분히 기술할 수 있다.In one embodiment, the device's universal location field 410, the horizontal orientation field 420 of the image, the vertical orientation field 430 of the image, and the viewing angle field 440 are captured by the device while capturing the corresponding image. do. In combination, the parameters associated with the device's universal location field 410, the horizontal orientation field 420 of the image, the vertical orientation field 430 of the image, and the viewing angle field 440 may be other images with similar parameters recorded. In comparison with this, the corresponding image can be sufficiently described.

일 실시예에서, 연관된 화상 필드(450)는 레코드(400)와 연관된 화상과 관련된 적어도 하나의 다른 화상을 표시한다. 예컨대, 이 특정 화상에 대한 디바이스의 로케이션과 유사한 디바이스의 로케이션 필드(410)를 갖는 다른 화상은 관련된 화상으로 고려된다. 일 실시예에서, 연관된 화상은 특정 화상으로부터 상이한 수평 방위 또는 상이한 수직 방위를 갖는다. 다른 실시예에서, 연관된 화상은 특정 화상으로부터 시야각을 갖는다.In one embodiment, the associated picture field 450 displays at least one other picture associated with the picture associated with the record 400. For example, another picture having a device's location field 410 similar to the device's location for this particular picture is considered an associated picture. In one embodiment, the associated picture has a different horizontal orientation or different vertical orientation from a particular image. In another embodiment, the associated picture has a viewing angle from the particular picture.

일 실시예에서, 공통 레퍼런스 포인트(460)는 복수의 화상에 대한 공통 레퍼런스 로케이션을 식별한다. 일 실시예에서, 공통 레퍼런스 로케이션은 디바이스로 부터 계산된다. 다른 실시예에서, 공통 레퍼런스 로케이션은 각각의 대응하는 화상으로부터 계산된다. In one embodiment, common reference point 460 identifies common reference locations for the plurality of pictures. In one embodiment, the common reference location is calculated from the device. In another embodiment, a common reference location is calculated from each corresponding picture.

일 실시예에서, 화상 식별 필드(470)는 화상을 식별한다. 일례에서, 화상 식별 필드(470)는 특정 화상에 대한 서술적 타이틀을 포함한다. 다른 예에서, 화상 식별 필드(470)는 특정 화상에 대응하는 고유 식별을 포함한다.In one embodiment, the picture identification field 470 identifies a picture. In one example, picture identification field 470 includes a descriptive title for a particular picture. In another example, image identification field 470 includes a unique identification corresponding to a particular image.

일 실시예에서, 물체의 거리 필드(480)는 화상을 캡쳐하는 디바이스와 화상의 물체간의 거리를 식별한다. 일 실시예에서, 이 거리는 디바이스내의 초점 메커니즘으로부터 계산된다.In one embodiment, the distance field 480 of the object identifies the distance between the device capturing the image and the object of the image. In one embodiment, this distance is calculated from the focus mechanism in the device.

도 5a는 레코드(400), 대응하는 화상, 및 시스템(300)에서 이용하기 위한 데이터 구조를 도시한다. 데이터 구조는 레코드 테이블(500) 및 화상 테이블(510)을 포함한다. 일 실시예에서, 레코드 테이블(500)은 저장 모듈(330)내에 저장된다. 다른 실시예에서, 화상 테이블(510)은 저장 모듈(330)내에 저장된다.5A shows a record 400, a corresponding picture, and a data structure for use in the system 300. The data structure includes a record table 500 and an image table 510. In one embodiment, record table 500 is stored in storage module 330. In another embodiment, the image table 510 is stored in the storage module 330.

일 실시예에서, 레코드 테이블(500)은 레코드(515) 및 레코드(400)와 유사한 레코드(525)를 포함한다. 일 실시예에서, 화상 테이블(510)은 화상(520) 및 화상(530)을 포함한다. 일례에서, 레코드(515)는 화상(520)과 대응하고, 레코드(525)는 화상(530)과 대응한다. 화상 및 대응하는 레코드가 본 실시예에서는 별도로 저장되지만, 화상 및 대응하는 레코드는, 화상의 하나가 이용될 때 대응하는 레코드가 식별될 수 있도록 서로 논리적으로 링크되도록 구성된다.In one embodiment, record table 500 includes record 515 and record 525 similar to record 400. In one embodiment, the image table 510 includes an image 520 and an image 530. In one example, record 515 corresponds to picture 520 and record 525 corresponds to picture 530. Although the picture and the corresponding record are stored separately in this embodiment, the picture and the corresponding record are configured to be logically linked to each other so that the corresponding record can be identified when one of the pictures is used.

도 5b는 레코드(400), 대응하는 화상, 및 시스템(300)에 이용하기 위한 데이터 구조(550)를 도시한다. 일 실시예에서, 데이터 구조(550)는 대응하는 화 상(570)과 결합된 레코드(560)를 포함한다. 본 실시예에서, 화상 및 대응하는 레코드 모두는, 화상이 이용될 때 레코드가 더 이상의 동작없이 이용가능해지도록 서로 결합된다.5B shows a record 400, a corresponding picture, and a data structure 550 for use with the system 300. In one embodiment, data structure 550 includes a record 560 associated with the corresponding image 570. In this embodiment, both the picture and the corresponding record are combined with each other so that the record becomes available without further action when the picture is used.

도 6, 7 및 8에 도시된 순서도는 콘텐츠를 포맷하고 표시하기 위한 방법 및 장치의 일 실시예이다. 순서도내의 블록은, 콘텐츠를 동기화하고 추적하기 위한 방법 및 장치의 사상을 벗어나지 않고 상이한 시퀀스로 수행될 수 있다. 또한, 블록은 콘텐츠를 동기화하고 추적하기 위한 방법 및 장치의 사상을 벗어나지 않고 제거, 부가 또는 조합될 수 있다.6, 7, and 8 are one embodiment of a method and apparatus for formatting and displaying content. Blocks in the flowcharts may be performed in different sequences without departing from the spirit and methods of synchronizing and tracking content. In addition, blocks may be removed, added, or combined without departing from the spirit and methods of synchronizing and tracking content.

도 6의 순서도는 본 발명의 일 실시예에 따라 화상을 캡쳐하는 것과 화상에 대응하는 로케이션 정보를 도시한다. 블록(610)에서, 화상을 캡쳐하는 전자 디바이스가 식별된다. 일 실시예에서, 특정 전자 디바이스는 사용자에 의해 식별된다. 일 실시예에서, 전자 디바이스는 디지털 카메라, 비디오 카메라, 화상 캡쳐 모듈을 구비한 개인용 디지털 디바이스, 집적된 카메라를 구비한 셀룰러폰등이다.6 illustrates capturing an image and location information corresponding to the image, according to one embodiment of the invention. At block 610, an electronic device that captures an image is identified. In one embodiment, a particular electronic device is identified by a user. In one embodiment, the electronic device is a digital camera, a video camera, a personal digital device with an image capture module, a cellular phone with an integrated camera, or the like.

블록(620)에서, 전자 디바이스의 로케이션이 검출된다. 일 실시예에서, 디바이스의 로케이션은 디바이스의 범용 로케이션 필드(410)내에 저장된다.At block 620, the location of the electronic device is detected. In one embodiment, the location of the device is stored in the general location field 410 of the device.

블록(630)에서, 화상은 전자 디바이스에 의해 캡쳐된다.At block 630, an image is captured by the electronic device.

블록(640)에서, 블록(630)에서 캡쳐된 화상에 대응하는 화상 정보가 검출된다. 일 실시예에서, 화상 정보는 화상의 수평 방위, 화상의 수직 방위, 시야각, 및/또는 물체로부터의 거리를 포함한다. 일 실시예에서, 화상의 수평 방위, 화상의 수직 방위, 및 시야각은, 화상의 수평 방위 필드(420), 화상의 수직 방위 필 드(430), 및 시야각 필드(440)에 각각 기록된다. At block 640, image information corresponding to the image captured at block 630 is detected. In one embodiment, the image information includes the horizontal orientation of the image, the vertical orientation of the image, the viewing angle, and / or the distance from the object. In one embodiment, the horizontal orientation of the image, the vertical orientation of the image, and the viewing angle are recorded in the horizontal orientation field 420 of the image, the vertical orientation field 430 of the image, and the viewing angle field 440, respectively.

블록(650)에서, 화상은 저장된다. 일 실시예에서, 화상은 저장 모듈(330)내에 저장된다. 일례에서, 화상은 도 5a에 도시된 테이블내에 저장된다. 다른 예에서, 화상은 도 5b에 도시된 바와 같이 독립적으로 저장된다.At block 650, the image is stored. In one embodiment, the image is stored in storage module 330. In one example, the image is stored in the table shown in FIG. 5A. In another example, the image is stored independently as shown in FIG. 5B.

블록(660)에서, 디바이스 로케이션 및 화상 정보가 저장된다. 일 실시예에서, 디바이스 로케이션 및 화상 정보는 저장 모듈(330)에 저장된다. 일 실시예에서, 디바이스 로케이션 및 화상 정보는 테이블에 저장되고 도 5a에 도시된 바와 같이 대응하는 화상에 링크된다. 다른 예에서, 디바이스 로케이션 및 화상 정보는 도 5b에 도시된 바와 같이 대응하는 화상에 결합되어 저장된다.At block 660, device location and image information is stored. In one embodiment, device location and image information is stored in storage module 330. In one embodiment, the device location and picture information is stored in a table and linked to the corresponding picture as shown in FIG. 5A. In another example, device location and image information is stored in association with the corresponding image as shown in FIG. 5B.

도 7의 순서도는 본 발명의 일 실시예에 따라 화상을 표시하는 것을 도시한다. 블록(710)에서, 특정 화상이 식별된다. 일 실시예에서, 특정 화상은 화상 식별 필드(470)를 통해 식별된다.7 shows displaying an image in accordance with one embodiment of the present invention. At block 710, a particular picture is identified. In one embodiment, the particular picture is identified via the picture identification field 470.

블록(720)에서, 특정 화상에 대응하는 화상 정보가 검출된다. 일 실시예에서, 화상 정보는 화상의 수평 방위, 화상의 수직 방위, 및/또는 시야각을 포함한다. 일 실시예에서, 화상의 수평 방위, 화상의 수직 방위, 및 시야각은, 화상의 수평 방위 필드(420), 화상의 수직 방위 필드(430), 및 시야각 필드(440)에 각각 기록된다.At block 720, image information corresponding to a particular image is detected. In one embodiment, the image information includes a horizontal orientation of the image, a vertical orientation of the image, and / or a viewing angle. In one embodiment, the horizontal orientation of the image, the vertical orientation of the image, and the viewing angle are recorded in the horizontal orientation field 420 of the image, the vertical orientation field 430 of the image, and the viewing angle field 440, respectively.

일 실시예에서, 화상 정보는 특정 화상에 대응하는 레코드(400)를 통해 검출된다.In one embodiment, picture information is detected via a record 400 corresponding to a particular picture.

블록(730)에서, 디바이스의 로케이션 정보가 검출된다. 일 실시예에서, 디 바이스의 로케이션은, 특정 화상이 디바이스에 의해 캡쳐되는 때의 로케이션에 대응한다. 일 실시예에서, 로케이션 정보는 레코드(400)내에서 발견된다.At block 730, location information of the device is detected. In one embodiment, the location of the device corresponds to the location when a particular image is captured by the device. In one embodiment, location information is found in record 400.

블록(740)에서, 이용가능 디스플레이 디바이스가 검출된다. 일 실시예에서, 하나의 디스플레이 디바이스가 검출된다. 다른 실시예에서, 복수의 디스플레이 디바이스가 검출된다. 일 실시예에서, 디스플레이 디바이스는 렌더 모듈(310)에 결합된다.At block 740, an available display device is detected. In one embodiment, one display device is detected. In another embodiment, a plurality of display devices is detected. In one embodiment, the display device is coupled to the render module 310.

일 실시예에서, 디스플레이 디바이스는 디스플레이 스크린상에 화상을 시각적으로 표시하도록 구성된 디스플레이 스크린이다. 다른 실시예에서, 디스플레이 디바이스는 유형의 매체상에 인쇄된 자료를 생성하도록 구성된 프린터 디바이스이다.In one embodiment, the display device is a display screen configured to visually display an image on the display screen. In another embodiment, the display device is a printer device configured to generate printed material on a tangible medium.

블록(750)에서, 디스플레이 디바이스상에 특정 화상을 표시하기 위해 영역이 선택된다. 일 실시예에서, 영역은 디바이스의 로케이션 정보에 기초하여 선택된다. 다른 실시예에서, 영역은 화상 정보에 기초하여 선택된다. At block 750, an area is selected to display a particular picture on the display device. In one embodiment, the area is selected based on the location information of the device. In another embodiment, the area is selected based on the image information.

블록(760)에서, 화상은 디스플레이 디바이스상에서 선택된 영역내에 표시된다. 일 실시예에서, 하나의 디스플레이 스크린의 경우에, 화상은, 화상 정보 및/또는 디바이스 로케이션에 기초하여 하나의 디스플레이 스크린상에 선택된 영역내에 표시된다. 예컨대, 디스플레이 스크린의 하부 우측 코너는 식별된 화상에 대한 화상 정보에 기초하여 표시하기 위해 이용된다.At block 760, the image is displayed within a selected area on the display device. In one embodiment, in the case of one display screen, the image is displayed in a selected area on one display screen based on the image information and / or device location. For example, the lower right corner of the display screen is used to display based on the picture information for the identified picture.

다른 실시예에서, 복수의 디스플레이 스크린의 경우에, 화상 정보 및/또는 디바이스 로케이션에 기초하여 특정 디스플레이 스크린상에 화상이 표시된다. 예 컨대, 서로간에 이웃하여 위치하는 2개의 디스플레이에서, 좌측에 위치하는 디스플레이는 화상 정보에 기초하여 식별된 화상을 표시하기 위해 이용된다.In another embodiment, in the case of a plurality of display screens, an image is displayed on a particular display screen based on the image information and / or device location. For example, in two displays located next to each other, a display located on the left side is used to display an image identified based on the image information.

다른 실시예에서, 프린터 디바이스를 갖는 유형의 매체의 경우에, 화상 정보 및/또는 디바이스 로케이션에 기초하여 유형의 매체상의 선택된 영역내에 화상이 표시된다. 예컨대, 유형의 매체의 하부 우측 코너는 식별된 화상에 대한 화상 정보에 기초하여 표시하기 위해 이용된다. In another embodiment, in the case of tangible media having a printer device, an image is displayed in a selected area on the tangible media based on the image information and / or device location. For example, the lower right corner of the tangible medium is used to display based on the image information for the identified image.

도 8의 순서도는 본 발명의 다른 실시예에 따라 화상을 표시하는 것을 도시한다. 블록(810)에서, 연관된 화상이 식별된다. 일 실시예에서, 연관된 화상은, 각 개별적 화상을 캡쳐할 때 디바이스의 로케이션 정보의 근접성에 기초하여 판정된다. 일례에서, 디바이스 로케이션의 근접성은 연관된 화상을 식별하기 위한 임계값을 결정하기 위해 커스토마이즈될 수 있다.8 shows displaying an image according to another embodiment of the present invention. At block 810, the associated picture is identified. In one embodiment, the associated picture is determined based on the proximity of the location information of the device when capturing each individual picture. In one example, the proximity of the device location can be customized to determine a threshold for identifying the associated picture.

다른 실시예에서, 사용자는 연관된 화상을 식별한다.In another embodiment, the user identifies the associated picture.

블록(820)에서, 각각의 연관된 화상과 대응하는 화상 정보가 검출된다. 일 실시예에서, 화상 정보는 화상의 수평 방위, 화상의 수직 방위 및/또는 시야각을 포함한다. 일 실시예에서, 화상의 수평 방위, 화상의 수직 방위, 및 시야각은, 화상의 수평 방위 필드(420), 화상의 수직 방위 필드(430), 및 시야각 필드(440)에 각각 기록된다. At block 820, picture information corresponding to each associated picture is detected. In one embodiment, the image information includes the horizontal orientation of the image, the vertical orientation of the image, and / or the viewing angle. In one embodiment, the horizontal orientation of the image, the vertical orientation of the image, and the viewing angle are recorded in the horizontal orientation field 420 of the image, the vertical orientation field 430 of the image, and the viewing angle field 440, respectively.

일 실시예에서, 화상 정보는 특정 화상과 대응하는 레코드(400)를 통해 검출된다.In one embodiment, picture information is detected through a record 400 corresponding to a particular picture.

블록(830)에서, 이용가능 디스플레이 디바이스가 검출된다. 일 실시예에서, 하나의 디스플레이 디바이스가 검출된다. 다른 실시예에서, 복수의 디스플레이 디바이스가 검출된다. 일 실시예에서, 디스플레이 디바이스는 렌더 모듈(310)에 결합된다.At block 830, an available display device is detected. In one embodiment, one display device is detected. In another embodiment, a plurality of display devices is detected. In one embodiment, the display device is coupled to the render module 310.

일 실시예에서, 디스플레이 디바이스는 디스플레이 스크린상에 화상을 시각적으로 표시하도록 구성된 디스플레이 스크린이다. 다른 실시예에서, 디스플레이 디바이스는 유형의 매체상에 인쇄된 자료를 생성하도록 구성된 프린터 디바이스이다.In one embodiment, the display device is a display screen configured to visually display an image on the display screen. In another embodiment, the display device is a printer device configured to generate printed material on a tangible medium.

블록(840)에서, 제1 연관 화상이 디스플레이 디바이스내의 제1 영역에 표시된다. 일 실시예에서, 제1 연관 화상에 대응하는 화상 정보는 제1 영역을 결정한다. 다른 실시예에서, 제1 연관 화상의 화상 정보는, 제1 연관 화상을 표시하기 위해 어느 디스플레이 디바이스가 선택되어야 하는지를 결정한다.At block 840, the first associated picture is displayed in a first area within the display device. In one embodiment, the picture information corresponding to the first associated picture determines the first area. In another embodiment, the picture information of the first associated picture determines which display device should be selected to display the first related picture.

블록(850)에서, 제2 연관 화상이 디스플레이 디바이스내의 제2 영역에 표시된다. 일 실시예에서, 제2 연관 화상에 대응하는 화상 정보는 제2 영역을 결정한다. 다른 실시예에서, 제2 연관 화상의 화상 정보는, 제2 연관 화상을 표시하기 위해 어느 디스플레이 디바이스가 선택되어야 하는지를 결정한다.At block 850, a second associated picture is displayed in a second area within the display device. In one embodiment, the picture information corresponding to the second associated picture determines the second area. In another embodiment, the picture information of the second associated picture determines which display device should be selected to display the second related picture.

일 실시예에서, 제1 연관 화상 및 제2 연관 화상은, 제1 연관 화상 및 제2 연관 화상 모두에 대한 화상 정보를 비교하는 것에 기초하여 서로간에 관련되어 표시된다. 예컨대, 제1 연관 화상이 제2 연관 화상의 우측에 대해 수평 방위로 캡쳐되면, 제1 연관 화상은 제2 연관 화상의 우측에 대해 표시된다.In one embodiment, the first associated picture and the second associated picture are displayed in relation to each other based on comparing image information for both the first associated picture and the second associated picture. For example, if the first associated picture is captured in the horizontal orientation with respect to the right side of the second associated picture, the first associated picture is displayed with respect to the right side of the second associated picture.

다른 실시예에서, 제1 연관 화상 및 제2 연관 화상은, 공통 레퍼런스 포인트 에 관계된 제1 연관 화상 및 제2 연관 화상 모두에 대한 화상 정보를 비교하는 것에 기초하여 서로간에 관련되어 표시된다. 예컨대, 제1 연관 화상이 공통 레퍼런스 포인트위에서 수직 방위로 캡쳐되고 제2 연관 화상이 공통 레퍼런스 포인트 아래에서 수직 방위로 캡쳐되면, 다음에 제1 연관 화상은 제2 연관 화상의 우측 위에 표시된다.In another embodiment, the first associated picture and the second associated picture are displayed in relation to each other based on comparing image information for both the first associated picture and the second associated picture related to the common reference point. For example, if the first associated picture is captured in a vertical orientation above the common reference point and the second associated picture is captured in a vertical orientation below the common reference point, then the first associated picture is displayed above the right side of the second associated picture.

도 9는 복수의 디스플레이 디바이스상에 연관 화상의 표시를 도시하는 예시적인 도면이다. 일 실시예에서, 캡쳐된 화상의 스트림(950)은 복수의 디바이스상에 표시된다. 본 실시예에서, 캡쳐된 화상의 스트림(950)은 화상(960, 970, 980, 및 990)을 포함한다. 화상(960)은 화상(970) 이전에 캡쳐되고, 화상(970)은 화상(980) 이전에 캡쳐되고, 화상(980)은 화상(990) 이전에 캡쳐된다. 일 실시예에서, 화상(960, 970, 980, 및 990) 각각은 레코드(400)에 도시된 바와 같은 정보를 포함한다.9 is an exemplary diagram illustrating display of an associated image on a plurality of display devices. In one embodiment, the stream 950 of captured images is displayed on the plurality of devices. In this embodiment, the stream 950 of captured pictures includes pictures 960, 970, 980, and 990. Picture 960 is captured before picture 970, picture 970 is captured before picture 980, and picture 980 is captured before picture 990. In one embodiment, each of the images 960, 970, 980, and 990 includes information as shown in the record 400.

일 실시예에서, 디스플레이 디바이스는 플레이스홀더(placeholder)(905)에 관계된 로케이션에 묘사된 디스플레이 디바이스(910, 920, 930, 및 940)를 포함한다. 다른 실시예에서, 디스플레이 디바이스(910, 920, 930, 및 940)는 하나의 디스플레이 디바이스내의 상이한 로케이션을 나타낸다.In one embodiment, the display device includes display devices 910, 920, 930, and 940 depicted at a location relative to a placeholder 905. In another embodiment, display devices 910, 920, 930, and 940 represent different locations within one display device.

일 실시예에서, 플레이스홀더(905)는 캡쳐된 화상(950)의 스트림을 기록하는 카메라 디바이스를 나타낸다. 다른 실시예에서, 플레이스홀더(950)는 캡쳐된 화상(950)의 스트림에 의해 이용되는 레퍼런스 포인트를 나타낸다.In one embodiment, placeholder 905 represents a camera device that records a stream of captured image 950. In another embodiment, placeholder 950 represents a reference point used by a stream of captured image 950.

일 실시예에서, 화상(960)은 디스플레이 디바이스(940)상에 표시되고, 화 상(970)은 디스플레이(930)상에 표시되고, 화상(980)은 디스플레이(910)상에 표시되고, 화상(990)은 디스플레이(920)상에 표시된다. 본 실시예에서, 캡쳐된 화상의 스트림(950)은 임의의 순서도 캡쳐될 수 있다. 일 실시예에서, 화상(960, 970, 980 및 990)은 플레이스홀더(905)와 관련하여 시스템(300)에 따라 배열되고 표시된다. 예컨대, 화상(960, 970, 980 및 990)이 캡쳐되었을 때, 화상(940)은 화상(920)위에 위치하고, 화상(910)은 화상(920)의 좌측에 위치하고, 화상(930)은 화상(920)의 우측에 위치한다. 화상(960, 970, 980 및 990)이 캡쳐된 화상의 스트림(950)내에서 상이한 순서로 캡쳐됨에도 불구하고, 이들은 캡쳐되는 동안 그 위치에 기초하여 그 각각의 디스플레이에 위치된다.In one embodiment, image 960 is displayed on display device 940, image 970 is displayed on display 930, image 980 is displayed on display 910, and image 990 is displayed on the display 920. In this embodiment, the stream 950 of captured images can be captured in any order. In one embodiment, images 960, 970, 980, and 990 are arranged and displayed according to system 300 with respect to placeholder 905. For example, when images 960, 970, 980, and 990 are captured, image 940 is positioned above image 920, image 910 is positioned to the left of image 920, and image 930 is positioned as image ( 920 is located on the right side. Although pictures 960, 970, 980, and 990 are captured in a different order within stream 950 of the captured pictures, they are located on their respective displays based on their location during capture.

본 발명의 특정 실시예에 대한 전술한 상세한 설명은 예시 및 설명을 위한 목적으로 제시되었다. 본 발명은 다양한 여러 애플리케이션에 적용될 수 있다.The foregoing detailed description of specific embodiments of the invention has been presented for purposes of illustration and description. The invention can be applied to a variety of different applications.

이들은 개시된 실시예에 따른 본 발명에 대해 소모적이거나 제한적인 것은 아니며, 당연히 다수의 수정 및 변형이 전술한 교시에 따라 가능하다. 실시예는 본 발명의 원리 및 그 실제적 애플리케이션을 설명하기 위해 선택되고 기술되었고, 이에 따라 본 기술분야의 숙련자는 본 발명 및 고려되는 특정한 이용에 적합한 다양한 수정을 갖는 여러 실시예를 가장 잘 이용할 수 있다. 본 발명의 범주는 여기 부가된 특허청구범위 및 그 균등물에 의해서만 한정된다.These are not exhaustive or limiting to the invention according to the disclosed embodiments, and naturally many modifications and variations are possible in accordance with the above teachings. The embodiments have been selected and described in order to illustrate the principles of the invention and its practical applications, and thus those skilled in the art can best utilize various embodiments having various modifications suitable for the invention and the particular uses contemplated. . It is intended that the scope of the invention only be limited by the claims appended hereto and their equivalents.

Claims (31)

디바이스로 화상(image)을 캡쳐하는 단계;Capturing an image with the device; 상기 화상과 연관된 화상 파라미터를 검출하는 단계;Detecting picture parameters associated with the picture; 상기 화상 파라미터가 나중의 액세스를 위해 이용가능 하도록 상기 화상 파라미터를 저장하는 단계; 및Storing the picture parameters such that the picture parameters are available for later access; And 상기 화상 파라미터에 기초하여 디스플레이 로케이션(display location)에 상기 화상을 표시하는 단계를 포함하는 방법.Displaying the picture at a display location based on the picture parameter. 제1항에 있어서,The method of claim 1, 상기 디바이스는 카메라인 방법.The device is a camera. 제1항에 있어서,The method of claim 1, 상기 화상을 저장하는 단계를 더 포함하는 방법.Storing the image. 제1항에 있어서,The method of claim 1, 상기 화상이 캡쳐될 때, 상기 디바이스의 로케이션을 검출하는 단계를 더 포함하는 방법.When the image is captured, detecting the location of the device. 제4항에 있어서,The method of claim 4, wherein 상기 디바이스의 로케이션에 기초하여 연관된 화상을 검출하는 단계를 더 포함하는 방법.Detecting an associated picture based on a location of the device. 제5항에 있어서,The method of claim 5, 상기 연관된 화상을 검출하는 단계는, 제1 화상에 대응하는 상기 디바이스의 제1 로케이션과 제2 화상에 대응하는 상기 디바이스의 제2 로케이션을 비교하는 단계를 더 포함하는 방법.Detecting the associated picture further comprises comparing a first location of the device corresponding to a first picture with a second location of the device corresponding to a second picture. 제1항에 있어서,The method of claim 1, 상기 화상은 사진(photograph)인 방법.The image is a photograph. 제1항에 있어서,The method of claim 1, 상기 화상은 비디오 시퀀스내의 하나의 프레임인 방법.The picture is one frame in a video sequence. 제1항에 있어서,The method of claim 1, 상기 화상 파라미터는 상기 화상의 수평 방위(orientation)인 방법.The picture parameter is a horizontal orientation of the picture. 제1항에 있어서,The method of claim 1, 상기 화상 파라미터는 상기 화상의 수직 방위인 방법.The picture parameter is a vertical orientation of the picture. 제1항에 있어서,The method of claim 1, 상기 화상 파라미터는 상기 화상의 시야각인 방법.The picture parameter is a viewing angle of the picture. 제1항에 있어서,The method of claim 1, 상기 화상 파라미터는 상기 디바이스에 관계된 상기 화상의 로케이션인 방법.The picture parameter is a location of the picture relative to the device. 디바이스로 화상을 캡쳐하는 수단;Means for capturing an image with the device; 상기 화상에 연관된 화상 파라미터를 검출하는 수단;Means for detecting a picture parameter associated with the picture; 상기 화상 파라미터가 나중에 액세스를 위해 이용가능 하도록 상기 화상 파라미터를 저장하는 수단; 및Means for storing the picture parameter such that the picture parameter is available for later access; And 상기 화상 파라미터 중 적어도 하나에 기초하여 디스플레이 로케이션에 상기 화상을 표시하는 수단을 포함하는 시스템.Means for displaying the picture at a display location based on at least one of the picture parameters. 제1 화상 및 제2 화상을 검출하는 단계;Detecting the first image and the second image; 상기 제1 화상 및 상기 제2 화상 각각에 대응하는 제1 화상 파라미터 및 제2 화상 파라미터를 검출하는 단계;Detecting a first picture parameter and a second picture parameter corresponding to each of the first picture and the second picture; 상기 제1 화상 파라미터에 기초하여 제1 디스플레이 로케이션에 상기 제1 화상을 표시하는 단계; 및Displaying the first image at a first display location based on the first image parameter; And 상기 제2 화상 파라미터에 기초하여 제2 디스플레이 로케이션에 상기 제2 화 상을 표시하는 단계를 포함하는 방법.Displaying the second picture at a second display location based on the second picture parameter. 제14항에 있어서,The method of claim 14, 상기 제1 화상 파라미터 및 상기 제2 화상 파라미터가 나중에 액세스를 위해 이용가능 하도록 상기 제1 화상 파라미터 및 상기 제2 화상 파라미터를 저장하는 단계를 더 포함하는 방법.Storing the first picture parameter and the second picture parameter such that the first picture parameter and the second picture parameter are available for later access. 제14항에 있어서,The method of claim 14, 상기 제1 화상을 캡쳐하는 단계를 더 포함하는 방법.Capturing the first image. 제14항에 있어서,The method of claim 14, 상기 제1 화상 파라미터를 캡쳐하는 단계를 더 포함하는 방법.Capturing said first picture parameter. 제14항에 있어서,The method of claim 14, 상기 제1 디스플레이 로케이션은 제1 디스플레이 디바이스상에 표시되고, 상기 제2 디스플레이 로케이션은 제2 디스플레이 디바이스상에 표시되는 방법.Wherein the first display location is displayed on a first display device and the second display location is displayed on a second display device. 제14항에 있어서,The method of claim 14, 상기 제1 디스플레이 로케이션 및 상기 제2 디스플레이 로케이션은 디스플레이 디바이스상에 표시되는 방법.The first display location and the second display location are displayed on a display device. 제14항에 있어서,The method of claim 14, 상기 제1 디스플레이 로케이션 및 상기 제2 디스플레이 로케이션은 유형의(tangible) 매체상에 구현되는 방법.And the first display location and the second display location are implemented on a tangible medium. 제14항에 있어서,The method of claim 14, 상기 제1 화상 파라미터는 상기 화상의 수평 방위인 방법.Wherein the first picture parameter is a horizontal orientation of the picture. 제14항에 있어서,The method of claim 14, 상기 제1 화상 파라미터는 상기 화상의 수직 방위인 방법.And the first picture parameter is a vertical orientation of the picture. 제14항에 있어서,The method of claim 14, 상기 제1 화상 파라미터는 상기 화상의 시야각인 방법.The first picture parameter is a viewing angle of the picture. 제14항에 있어서,The method of claim 14, 상기 제1 화상 및 상기 제2 화상 각각에 대응하는 제1 디바이스 로케이션 및 제2 디바이스 로케이션에 기초하여 상기 제1 화상 및 상기 제2 화상을 선택하는 단계를 더 포함하는 방법.Selecting the first picture and the second picture based on a first device location and a second device location corresponding to each of the first and second pictures. 화상을 묘사하는 화상 파라미터를 캡쳐하는 로케이션 모듈;A location module for capturing picture parameters depicting a picture; 상기 화상 파라미터를 저장하도록 구성된 저장 모듈; 및A storage module configured to store the picture parameter; And 상기 화상 파라미터에 기초하여 특정 로케이션에 상기 화상을 표시하도록 구성된 렌더(render) 모듈을 포함하는 시스템.And a render module configured to display the picture at a specific location based on the picture parameter. 제25항에 있어서,The method of claim 25, 상기 화상을 기록하도록 구성된 캡쳐 모듈을 더 포함하는 시스템.And a capture module configured to record the image. 제25항에 있어서,The method of claim 25, 상기 화상은 사진 및 비디오 시퀀스내의 프레임 중 하나를 포함하는 시스템.The picture comprises one of a frame within a photo and video sequence. 제25항에 있어서,The method of claim 25, 상기 로케이션 모듈은 상기 화상이 캡쳐되는 동안 디바이스의 로케이션을 검출하는 시스템.The location module detects a location of a device while the image is captured. 제25항에 있어서,The method of claim 25, 상기 저장 모듈은 상기 화상 파라미터를 포함하는 레코드를 저장하도록 구성되고, 상기 레코드는 상기 화상에 대응하는 시스템.The storage module is configured to store a record including the picture parameter, the record corresponding to the picture. 제25항에 있어서,The method of claim 25, 상기 저장 모듈은 동기화 프로그램을 저장하도록 구성된 시스템.The storage module is configured to store a synchronization program. 제1 화상 및 제2 화상을 검출하는 단계;Detecting the first image and the second image; 상기 제1 화상 및 상기 제2 화상 각각에 대응하는 제1 화상 파라미터 및 제2 화상 파라미터를 검출하는 단계;Detecting a first picture parameter and a second picture parameter corresponding to each of the first picture and the second picture; 상기 제1 화상 파라미터에 기초하여 제1 디스플레이 로케이션에 상기 제1 화상을 표시하는 단계; 및Displaying the first image at a first display location based on the first image parameter; And 상기 제2 화상 파라미터에 기초하여 제2 디스플레이 로케이션에 상기 제2 화상을 표시하는 단계Displaying the second image at a second display location based on the second image parameter 를 포함하는 방법을 수행하기 위한 컴퓨터 실행가능 명령을 갖는 컴퓨터 판독가능 매체.Computer-readable media having computer executable instructions for performing a method comprising a.
KR1020067015730A 2004-02-04 2005-01-27 Methods and apparatuses for formatting and displaying content KR20060130647A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/772,208 US20050168597A1 (en) 2004-02-04 2004-02-04 Methods and apparatuses for formatting and displaying content
US10/772,208 2004-02-04

Publications (1)

Publication Number Publication Date
KR20060130647A true KR20060130647A (en) 2006-12-19

Family

ID=34808609

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067015730A KR20060130647A (en) 2004-02-04 2005-01-27 Methods and apparatuses for formatting and displaying content

Country Status (5)

Country Link
US (1) US20050168597A1 (en)
EP (1) EP1730948A2 (en)
JP (1) JP2007526680A (en)
KR (1) KR20060130647A (en)
WO (1) WO2005076913A2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4237562B2 (en) * 2003-07-07 2009-03-11 富士フイルム株式会社 Device control system, device control method and program
TW201122711A (en) * 2009-12-23 2011-07-01 Altek Corp System and method for generating an image appended with landscape information
KR101641513B1 (en) * 2010-10-22 2016-07-21 엘지전자 주식회사 Image photographing apparatus of mobile terminal and method thereof
JP7240241B2 (en) * 2019-04-24 2023-03-15 キヤノン株式会社 Imaging device and its control method, attitude angle calculation device, program, storage medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3658659B2 (en) * 1995-11-15 2005-06-08 カシオ計算機株式会社 Image processing device
JP3906938B2 (en) * 1997-02-18 2007-04-18 富士フイルム株式会社 Image reproduction method and image data management method
JP4296451B2 (en) * 1998-06-22 2009-07-15 株式会社日立製作所 Image recording device
US6618076B1 (en) * 1999-12-23 2003-09-09 Justsystem Corporation Method and apparatus for calibrating projector-camera system
JP4366801B2 (en) * 1999-12-28 2009-11-18 ソニー株式会社 Imaging device
US7319490B2 (en) * 2000-01-21 2008-01-15 Fujifilm Corporation Input switch with display and image capturing apparatus using the same
US6914626B2 (en) * 2000-02-21 2005-07-05 Hewlett Packard Development Company, L.P. Location-informed camera
US6591068B1 (en) * 2000-10-16 2003-07-08 Disney Enterprises, Inc Method and apparatus for automatic image capture
US20030030733A1 (en) * 2001-08-08 2003-02-13 Seaman Mark D. System and method for synchronization of media data

Also Published As

Publication number Publication date
EP1730948A2 (en) 2006-12-13
US20050168597A1 (en) 2005-08-04
WO2005076913A2 (en) 2005-08-25
WO2005076913A3 (en) 2007-03-22
JP2007526680A (en) 2007-09-13

Similar Documents

Publication Publication Date Title
US8400490B2 (en) Framing an object for video conference
EP2777021B1 (en) Hands-free augmented reality for wireless communication devices
JP4676852B2 (en) Content transmission device
US20060077262A1 (en) Imaging system and imaging method
CN101938604A (en) Image processing method and camera
JP5229791B2 (en) PHOTO MAPPING METHOD AND SYSTEM, PROGRAM, AND STORAGE MEDIUM
US9836826B1 (en) System and method for providing live imagery associated with map locations
US20120050561A1 (en) Image processing apparatus, control method thereof, and program
KR20150023406A (en) Enhancing captured data
US8768377B2 (en) Portable electronic device and method of providing location-based information associated with an image
JP2010220189A (en) Image capturing apparatus and moving image distribution system
WO2019234953A1 (en) Information processing apparatus, information processing method, and program
JP4543694B2 (en) COMMUNICATION SYSTEM, COMMUNICATION SYSTEM SERVER, AND SERVER PROCESSING METHOD
JP2014095979A (en) Electronic device, image data processing method and program
KR20060130647A (en) Methods and apparatuses for formatting and displaying content
KR102168110B1 (en) Camera system
US20110149089A1 (en) System and method for generating an image appended with landscape information
JP2010068247A (en) Device, method, program and system for outputting content
JP2013182450A (en) Location management program and location management device
KR20120080379A (en) Method and apparatus of annotating in a digital camera
KR20060132679A (en) Methods and apparatuses for broadcasting information
JP2004274735A (en) Imaging apparatus and image processing apparatus
JP2014158244A (en) Image processing device, image processing method, and image processing program
TWI828302B (en) Shooting methods and shooting equipment
JP6743441B2 (en) Image collection device, display system, image collection method and program

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid