KR20040111131A - 화상표시방법, 프로그램 및 화상표시장치 - Google Patents

화상표시방법, 프로그램 및 화상표시장치 Download PDF

Info

Publication number
KR20040111131A
KR20040111131A KR1020040045318A KR20040045318A KR20040111131A KR 20040111131 A KR20040111131 A KR 20040111131A KR 1020040045318 A KR1020040045318 A KR 1020040045318A KR 20040045318 A KR20040045318 A KR 20040045318A KR 20040111131 A KR20040111131 A KR 20040111131A
Authority
KR
South Korea
Prior art keywords
images
image
image display
overlap
exposure
Prior art date
Application number
KR1020040045318A
Other languages
English (en)
Other versions
KR100637741B1 (ko
Inventor
요시카와토모야스
아라타니순타로
오노토모유키
미야모토카츠히로
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20040111131A publication Critical patent/KR20040111131A/ko
Application granted granted Critical
Publication of KR100637741B1 publication Critical patent/KR100637741B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4221Dedicated function buttons, e.g. for the control of an EPG, subtitles, aspect ratio, picture-in-picture or teletext
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/418External card to be used in combination with the client device, e.g. for conditional access
    • H04N21/4184External card to be used in combination with the client device, e.g. for conditional access providing storage capabilities, e.g. memory stick
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Television Signal Processing For Recording (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

테이블에는, 모니터 화면상의 각 표시 위치에 대응하여 인텍스가 설치되어 있고, 각각의 해당 표시 위치에서의 비노출 부분을 나타내는 데이터가 상기 테이블에 기억되어 있다. 화상의 화상데이터의 Exif 헤더 정보로부터 초점 위치정보를 취득하여, 인덱스의 오름차순에서 화상데이터가 미등록된 테이블의 인텍스중의 하나의 위치를 검색한다. 테이블에 따라, 각 화상의 초점 위치가 화상의 표시위치의 비노출 부분과 다르게 되도록 화상을 배치한다.

Description

화상표시방법, 프로그램 및 화상표시장치{IMAGE DISPLAY METHOD, PROGRAM, AND IMAGE DISPLAY APPARATUS}
본 발명은 디지털 화상데이터를 텔레비젼 모니터화면상에서 재생하기 위한 화상 표시 방법에 관한 것이다.
디지털 하이비젼 방송이 개시됨에 따라서, 디지털 하이비젼에 대한 텔레비젼 수신기의 보급이 광범위하게 보급되어, 이전보다 고화질로 인상적인 영상을 가정에서 유저들이 즐길 수 있게 되었다. 또, 전자 스틸카메라가 널리 보급되어서, 전자화한 정지화면 및 동영상을 퍼스널 컴퓨터 뿐만 아니라, 텔레비젼의 모니터 화면에 표시하고 즐기는 유저가 증가되고 있다.
텔레비젼 수신기를 이용하여 정지화면이나 동영상을 보기 위해서는, 유저는 모니터 화면에 표시된 썸네일 화상의 리스트를 보고, 그 썸네일 화상중의 하나를 선택하고, 이에 의해, 재생 데이터를 선택하는 것이 일반적이다.
한편, 최근 기억용량을 비약적으로 증대시킨 메모리의 이용이 가능하게 되었다. 따라서, 기억할 수 있는 화상의 수도 비약적으로 증대하고 있다. 예를 들면, 메모리 카드는 500매를 넘는 디지털 사진의 기억을 할 수 있다.
대량의 화상데이터중에서, 유저가 소망한 화상데이터를 찾아내는 것은 용이한 것은 아니었다.
대량의 데이터 오브젝트를 효율적으로 모니터화면에 배치하여, 유저 자신의 눈으로 용이하게 선택할 수 있도록 하는 기술의 예는, 일본국 공개특허 2001-306375호 공보에, 썸네일 화상을 겹치면서 이동시켜, 소망한 데이터를 용이하게 찾아낼 수 있도록 하는 기술이 개시되어 있다. 또, 일본국 특개평 9-259130호 공보에는, 화상을 3차원 공간안에 데이터를 표시하기 위해서, 가상적인 시점을 이동함으로써 소망한 데이터를 찾아낼 수 있도록 하는 기술이 개시되어 있다.
그러나, 종래의 기술에서는, 다음과 같은 불리한 점이 있다. 다른 썸네일 화상과 겹치면서 섬네일 화상을 표시하기 때문에, 사진을 판별하기 위해 중요한 부분이 종종 숨어 버린다. 예를 들면 도 14a 및 도 14b에 도시된 바와 같이 사진 A와 사진 B가 존재한다. 사진 A에서는, 화상의 왼쪽에 "경주에서 달리기를 하는" 아이들이 중요한 부분이며, 또 사진 B에서는, 화상의 우측에 있는 인물이 중요 부분이다. 이들 사진(A) 및 사진(B)을 다른 사진과 함께 겹쳐지면서 표시하면, 도 14a에 도시된 바와 같이, 중요한 부분이 숨겨진 채로 표시된다.
그것들을 방지하기 위해서는, 상기 일본국 공개특허 2001-306375호 공보 및 일본국 특개평 9-259130호 공보에 개시된 제안에서는, 유저가 그 사진의 중요한 부분이 보여지도록 표시화상을 스크롤 하거나 가상적인 시점의 위치를 움직이는 등의 조작을 실시하고 나서, 사진을 판별하는 이외의 다른 선택은 없다.
본 발명은 상기 종래의 불리한점에 비추어 달성된 것이다. 본 발명의 목적은 대량의 화상을 모니터 화면상에 효율적으로 배치한 상태에서, 유저가 용이하게 소망의 화상을 찾아낼 수가 있는 화상 표시방법을 제공하는 데 있다.
또, 촬영된 대부분의 디지털 화상은, 촬영자가 피사진 대상으로 간주하는 영역과 그 이외의 영역으로 분할할 수 있다. 여기서, 전자의 영역을 주목 영역, 후자의 영역을 비주목 영역이라고 부르기로 한다.
화상 표시장치의 조작자가, 대량의 디지털 화상으로부터 소망하는 화상을 검색을 하려고 하면, 각각의 디지털 화상내의 주목 영역에 의거하여 조작자가 소망의 화상을 판단하고 있다고 생각된다.
종래, 썸네일 화상을 생성하기 위해서는, 주목 영역과 비주목 영역의 구별 없이 균일하게 화상데이터를 축소한다. 이 때문에, 썸네일 화상의 리스트로서 복수 화상을 표시하였을 경우에, 각각의 화상의 주목 영역이 작은 크기로 표시된다. 그 결과로서, 대량의 디지털 화상을 내려다 보면서, 판단 기준으로서 주목 영역에 의거하여 소망한 화상을 찾아내는 것은 어렵다는 불리한 점이 있다.
상기 불리한 점을 고려하여, 화상의 안면 영역을 검출하고, 검출된 안면 영역을 확대하여 썸네일 화상을 리스트에 표시하는 방법이 일본국 공개특허 2002-358522호 공보에 개시된 바와 같이 제안되어 있다. 이 방법에 의하면, 주목 영역으로서 안면 영역을 검출하고, 검출된 안면부분을 확대하고, 확대된 영역을 표시함으로써 소망의 디지털 화상의 검색을 하는 성능을 개선한 시스템이 실현 가능하다.
이 방법에 의해서, 썸네일 화상의 리스트가 각각의 확대된 주목 영역으로 표시되기 때문에, 모니터 화면상에 한번에 표시 가능한 화상의 매수는 미리 고정되어 있다. 이 때문에, 화상의 매수가, 모니터 화면상에 한번에 표시 가능한 화상의 고정된 매수를 초과하는 경우, 스크롤 기능 및 페이지를 넘기는 기능 등의 기능이 부가적으로 필요하게 됨으로써, 유저의 조작이 복잡하게 되어 불리하다.
또, 확대한 주목 영역과 원래 화상의 양쪽 모두를 썸네일 화상 표시했을 경우, 모니터 화면상에 한번에 표시 가능한 화상의 매수가 감소되어 불리하다.
대상 화상으로부터 안면 영역을 검출할 수 없는 경우에는, 대처할 수 없는 불리함이 있다.
도 1은 본 발명의 제1 실시예에 의한 텔레비젼 수상기의 구성을 나타내는 블럭도.
도 2는 본 발명의 제 1실시예에 의한 텔레비젼 수상기의 리모트 컨트롤러를르 나타내는 블럭도.
도 3은 제 1실시예에 의한 표시 제어유닛(110)의 동작 흐름도.
도 4는 제 1실시예에 의한 표시 제어유닛(110)에 의해 작용되는 겹침 제어를 하기 위하여 이용된 정보 테이블에 포함되는 레이아웃 정보도.
도 5는 제 1실시예에 의한 표시 제어유닛(110)에 의해 겹침 제어하기 위해서 이용된 정보 테이블.
도 6a 및 도b는 제 1실시예에 의한 겹침 제어의 작용도.
도 7은 제 2실시예에 의한 표시제어유닛(110)의 동작 흐름도.
도 8a 내지 도 8c는 제 2실시예에 의한 표시제어유닛(110)에 의해 겹침 제어하기 위해서 이용한 노출 제어 마스크의 종류를 나타낸 도면.
도 9는 제 2실시예에 의한 표시 제어유닛(110)의 동작흐름도.
도 10a 내지 도 10f는 제 2실시예에 의한 겹침제어의 동작예를 나타낸 도면.
도 11a 내지 도 11f는 본 발명을 사용하지 않는 경우의 겹침 표시의 예와 본 발명의 제 2실시예에 의한 겹침 제어의 기능을 나타낸 도면.
도 12는 제 3의 실시예에 의한 표시 제어유닛(110)의 동작 흐름도.
도 13a 내지 도 13c는 제 3실시예에 의한 겹침 제어의 동작예를 나타낸 도면.
도 14a 및 도 14b는 각각 본 발명을 사용하지 않는 경우의 화상 리스트의 표시예와 본 발명을 사용한 화상 리스트의 표시예를 나타낸 도면.
도 15a 및 도 15b는 본 실시시예에서 사용한 디지털카메라의 액정모니터화면의 화상표시의 예를 나타낸 도면.
도 16a 및 도 16b는 본 발명의 제 1실시예 및 제 2실시예에서 이용한 초점 위치를 기록 가능한 디지털카메라를 이용하여 촬영하는 동안의 액정 모니터 상태도.
도 17은, 본 발명의 실시예에 의한 화상 표시장치의 구성을 나타낸 블럭도.
도 18은, 주목영역 검출의 한 방법으로서 사용되는 안면 검출처리의 처리흐름도.
도 19a는, 화상데이터의 일례를 나타낸 도면.
도 19b는, 안면 검출처리 후의 안면 영역의 판정 결과의 일례를 나타낸 도면.
도 20a는, 화상데이터의 일례를 나타낸 도면.
도 20b는, 촬영 정보에 의거한 주목영역의 범위 결정처리의 일례를 나타낸도면.
도 21은, 제 4실시예의 주목영역 결정처리의 처리흐름도.
도 22a는, 무작위로 겹쳐진 화상을 표시했을 경우의 일례를 나타낸 도면.
도 22b는, 주목영역의 크기를 고려하면서 겹쳐진 화상을 표시한 일례를 나타낸 도면.
도 23은, 겹침 표시 처리의 처리 흐름을 나타낸 흐르도.
도 24는, 화상이 겹쳐진 동안의 화상 리스트를 표시하는 하나의 실시예를 나타낸 도면.
도 25는, 제 5실시예에 의한 주목영역 결정처리의 처리 흐름을 나타낸 흐름도.
도 26은, 제 6실시예에 의한 주목영역 검출 후의 결과를 나타낸 도면.
도 27은, 본 발명의 제 7실시예에 의한 표시 제어유닛(110)의 동작의 흐름을 나타내는 흐름도.
<간단한 도면부호의 설명>
100: 디지털 텔레비젼 수신기 105: 화상데이터 입력유닛
106: 화상 처리유닛 107: 비데오메모리
108: 표시 합성유닛 109: 카드 슬롯
110: 표시 제어유닛 112: 표시기
113: 기억유닛 1101: 화상 표시장치
1201:제어 CPU 1203: 화상 표시유닛
본 발명의 일 측면에 의하면, 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법으로서, 상기 적어도 2개의 화상과 각각 관련된 관련정보를 취득하는 공정과; 상기 취득한 관련정보에 의거하여 적어도 2개의 화상을 겹칠 때에 적어도 2개의 화상 중에 어느 것이 상부 위치에 배치되는 가를 결정하는 공정; 을 포함하는 것을 특징으로 하는 화상표시방법을 제공한다.
본 발명의 다른 측면에 의하면, 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법으로서, 상기 적어도 2개의 화상에 관련된 관련정보를 취득하는 공정과; 상기 취득한 관련정보에 의거하여 적어도 2개의 화상중에 하나와 다른 화상이 겹친 결과로서 숨겨진 부분과 노출된 부분을 가진 적어도 2개의 화상중의 다른 쪽의 노출량과 노출위치 중의 어느 하나 또는 양자 모두를 결정하는 공정; 을 포함하는 것을 특징으로 하는 화상표시방법을 제공한다.
본 발명의 또 다른 측면에 의하면, 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법으로서, 적어도 2개의 화상의 안면영역을 각각 검출하는 공정과; 상기 각각의 안면영역의 크기에 의거하여 적어도 2개의 화상을 겹칠 때에 적어도 2개의 화상 중에 어느 것이 상부 위치에 배치되는 가를 결정하는 공정; 을 포함하는 것을 특징으로 하는 화상표시방법을 제공한다.
본 발명의 한층 더 다른 측면에 의하면, 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법으로서, 적어도 2개의 화상의 안면영역을 각각 검출하는 공정과; 상기 각각의 안면 영역의 위치에 의거하여 적어도 2개의 화상중에 하나와 다른 화상이 겹친 결과로서 숨겨진 부분과 노출된 부분을 가진 적어도 2개의 화상중의 다른 쪽의 노출량과 노출위치 중의 어느 하나 또는 양자 모두를 결정하는 공정; 을 포함하는 것을 특징으로 하는 화상표시방법을 제공한다.
본 발명의 화상 표시장치 및 화상 표시 방법에 의하면, 복수의 화상을 서로 겹치면서 리스트로서 복수의 화상을 표시한 경우에, 각 화상의 주목 영역이라고 생각되는 부분을 검출하고, 이에 의해, 이 주목 영역을 서로 겹치지 않도록 화상표시를 제어한다. 그 결과로서, 화상의 주목영역 모두가 항상 노출될 수 있음으로써, 개선된 유저 화상검색성능과 화상의 대량표시의 양자 모두를 실현할 수 있는 구성을 제공할 수 있다.
복수의 화상을 서로 겹치면서 리스트로서 복수의 화상을 표시할 경우에, 화상의 주목 영역의 크기의 내림차순으로 순차적으로 중첩되도록 상기 화상을 제어한다. 그 결과로, 복수의 화상을 서로 겹치면서 유저가 디지털 카메라를 이용하여 촬영한 대량의 디지털 화상을 모니터 화면상에 표시함으로써, 주목 영역의 노출 비율이 높은리스트로서 상기 화상을 효율적으로 배치할 수 있다. 또한, 효율적으로 화상을 배치한 경우에도, 개개의 화상의 정보특성에 의거하여, 유저가 사진을 판별하기 위해 중요한 부분이 서로 겹치지 않도록 화상을 표시한다.
즉, 본 발명에 의하면, 유저가 용이하게 소망한 사진을 찾아낼 수가 있다.
또한, 복수의 화상을 서로 겹치면서 리스트로서 복수의 화상을 표시할 경우에, 주목 영역이라고 생각되는 부분을 검출함으로써, 이 주목 영역을 서로 겹치지 않도록 화상 디스플레이를 제어한다. 그 결과로, 각 화상의 모든 주목 영역이 항상 노출할 수 있음으로써, 개선된 유저 화상 검색성능과 화상의 대량 표시의 양자 모두를 실현할 수 있는 구성을 제공할 수 있다.
게다가, 복수의 화상을 서로 겹치면서 리스트로서 복수의 화상을 표시할 경우에, 화상의 주목 영역의 크기순서의 내림차순으로 화상을 순차적으로 중첩하는 제어를 한다. 그 결과로, 주목 영역의 노출 비율이 높은 리스트로서 상기 화상을 효율적으로 배치할 수 있다.
<바람직한 실시예의 상세한 설명>
이하 도면을 참조하면서 본 발명의 실시예를 설명한다.
< 제 1실시예>
우선, 본 발명의 제 1실시예에 대해 설명한다. 도 1은 본 발명이 적용되는 화상 표시장치로서의 디지털 텔레비젼 수신기(100)의 구성을 나타낸 도이다.
도 1에서, 도시하지 않은 안테나에서 수신된 신호는 튜너유닛(101)에 입력된다. 튜너유닛(101)은, 입력된 신호에 대해서 복조, 오류 정정 등의 처리를 행하여, 트랜스포트 스트림(transport stream)(TS)으로 불리는 형식의 디지털 데이타를 생성한다. 튜너유닛(101)은 생성된 트랜스포트 스트림(TS)데이터를 주파수변환 해제하여, 상기 주파수변환 해제된 TS데이터를 디멀티플렉서(102)에 출력한다.
디멀티플렉서 유닛(102)은 복수 채널의 영상데이터, 음성 데이터 및 전자 프로그램 가이드(EPG) 데이터, 디지털 방송데이터 등이 시분할 다중화 되고, 튜너 유닛(101)으로부터 입력된 TS데이터로부터 영상 데이터 및 음성 데이타를 페치 (fetch)하여, 상기 페치된 영상데이터 및 음성 데이터를 영상 및 음성 디코더(103)에 출력한다. 영상 디코더 및 음성 디코더로 처리된 영상 데이터는 비디오 메모리 (107)에 기입되어 표시 합성유닛(108)을 개재하여, 표시기로 출력된다. 한편 음성 데이터는 음성 출력유닛(1O4)에서 출력된다.
도 1에서, (109)는 카드 슬롯이며, 리무버블 메모리 카드 등을 접속한다. 제 1실시예에서, 카드 슬롯(109)은 디지털 텔레비젼 수신기와 디지털 카메라 간의 데이터를 교환하는데 이용된다. (105)는 화상데이터 입력유닛이며, 카드 슬롯(109)에 접속된 메모리 카드 등으로 부터 디지털 화상데이터를 읽어들인다. (106)은 화상 처리유닛이며, 화상데이터 입력유닛으로부터 입력된 디지털 화상데이터에 대해서 화상 처리를 행하여, 비디오메모리(107)에 그 결과물인 디지털영상을 기입한다.
(110)은 표시 제어유닛을 나타낸다. 표시제어유닛(110)은 화상데이터 입력유닛(105)에 표시데이터화상을 읽도록 지시하고, 화상 처리유닛(106)에 화상처리를 실행하도록 지시하고, 비디오메모리(107)에 표시 데이터를 기입하도록 지시하고,표시 합성유닛(108)에 합성 처리를 행하도록 지시하고, 기억유닛(113)에 정보를 기억하도록 지시한다. 또, 표시 제어유닛(110)은 유저 입력유닛(111)을 개재하여 리모트 컨트롤러(114)로부터 입력데이타를 취득하고, 화상데이터 입력유닛(105)을 개재하여, 디지털 화상데이터에 할당된 촬영 데이터도 취득한다. 본 실시예에서는, 표시 제어유닛(110)이, 겹침 결정유닛 및 노출 결정유닛에 상당한다.
도 2에는 리모트 컨트롤러(114)의 예를 나타낸다. 다만 도 2는 본 실시예를 설명하기 위해 필요한 기능을 실현하기 위한 조작을 실시하는 버튼만을 나타내는 것이다. 따라서, 실제의 수신기에 필요한 버튼은 도 2에 도시된 것에 제한되는 것은 아니다.
도 2에서, (201)은 리모트 컨트롤러와 도 1에 도시된 수광유닛으로 기능을 하는 유저 입력유닛 (111)사이의 적외선 통신을 유지하기 위한 발광유닛을 나타내고, (202)는 전원을 ON/OFF 하기위한 전원 키를 나타내고, (203)은 상하 좌우 버튼의 한가운데로 결정키를 배치한 커서 및 결정키를 나타내고, (204) 및 (205)는 Up 버튼 및 Down버튼 2개의 버튼으로 구성되는 up키 및 down 키를 나타내고, (206)은 1 내지 9 및 0의 숫자가 매트릭스 상에 배치된 숫자 버튼을 가진 숫자키를 나타내고, (207)은 청색, 적색, 녹색, 황색의 4색의 정렬된 버튼을 가진 컬러 키를 나타낸다.
또, (208)은 텔레비젼 수신기의 모니터의 표시 모드를 변환하기 위한 모니터 모드 키를 나타내고, (209)는 화상 뷰어(viewer) 기능을 호출하기 위한 "뷰어" 키를 나타낸다.
본 실시예에서 이용된 디지털 화상은 디지털카메라로 촬영된 정지화상데이터 또는 동화상데이터이다. 정지화상데이터로서는, 디지털카메라로 JPEG 압축 처리가 되고, 정지화상데이터 파일로서 메모리 카드에 기록된 것을 이용한다. 마찬가지로, 동화상데이터로서는, 화상을 형성하기 위한 프레임 마다의 JPEG 압축 처리된 데이터를 동화상데이터 파일로서 메모리 카드에 기록된 것을 이용하고 있다. 이후의 주어진 설명으로 "화상 파일"은 정지화상데이터 또는 동화상데이터를 나타낸다고 가정 한다.
각각의 화상 파일에는, 화상에 관련된 정보로서 디지털카메라를 이용한 촬영시의 정보를 할당한다. 촬영시의 할당된 정보의 예로는, 촬영 일시나 카메라 종류 뿐만 아니라, 촬영장면모드, 파인더내의 초점위치를 나타내는 초점위치 정보, 스트로브(strobe) 발광 상태정보, 카메라와 피사체 사이의 거리를 나타내는 정보 및 줌 상태 정보가 포함된다.
본 실시예에서 사용된 디지탈카메라에 대해서는, 촬영시의 파인더내의 초점위치 정보로서 "왼쪽" , "안", " 오른쪽" 중의 한쪽이 기록된다.
본 실시예에서 사용된 디지털카메라의 액정모니터 화면상의 화상표시의 예를 도 15a 및 도 15b에 나타낸다. 도 15a는 유저가 셔터 버튼을 누르기 전의 상태를 나타내고, 도 15b는 유저가 셔터 버튼을 가볍게 누른 후, 디지털 카메라가 좌측의 직각사각형 영역에 초점이 맞게된 상태를 나타낸다.
(처리 동작)
본 실시예에 의하면, 디지털 텔레비젼 수신기(100)에서, 디지털 화상의 리스트의 표시는, 유저가 카드 슬롯(109)에 메모리 카드를 삽입하여, 리모트 컨트롤러 (114)의 조작에 의해 화상 뷰어기능을 호출하는 경우에, 개시된다.
도 3은 표시제어유닛(110)에 의해 실행된 동작을 중심으로 디지털 텔레비젼 수신기의 화상 뷰어 기능의 일부의 동작을 나타낸 흐름도이다. 도 5는 표시 제어유닛 (110)이 화상데이터의 리스트의 레이아웃 제어를 실시할 경우에 사용된 테이블 데이터를 나타낸다. 도 4는, 도 5의 각각의 인텍스에 대응한 화상표시 위치의 한 예를 나타낸다. 도 3 내지 도5를 참조하면서 표시 제어유닛(110)의 동작 처리를 설명한다.
유저가 도 2에 도시된 리모트 컨트롤러의 "뷰어"키(209)를 누르는 경우에, 표시 제어유닛(110)은 도 3에 도시된 처리를 개시한다.
우선, 표시제어유닛(110)은 화상데이터 입력유닛(105)을 개재하여 카드슬롯 (109)에 삽입되어 있는 메모리카드에 기억된 모든 화상파일의 총수를 읽어서 기억한다 (스텝 S301). 첫번째 화상 파일의 Exif 헤더 정보를 읽어낸다(스텝 S302, S303).
도 5에 도시된 테이블의 첫번째의 내용을 읽어낸다(S304). 화상 파일이 미등록이면(스텝 S305에서 "YES"), 표시제어유닛(110)이 읽어낸 Exif 헤더 정보에 포함된 초점위치 정보와 테이블의 제 1인덱스의 "비노출 부분"과 비교한다(스텝 S307). 그것들이 일치하면(스텝 S308에서 "YES"), 표시제어유닛(110)이 제 2테이블의 내용을 읽어낸다(스텝 S306 및 S304). 화상 화일이 미등록이면(스텝 S305에서 "YES"), 표시제어유닛(110)이 Exif 헤더의 정보에 포함되는 초점위치 정보와 테이블의 제 2인텍스의 "비노출 부분"을 비교한다(스텝 S307). 그것들이 일치하지 않는 경우에는 (스텝 S308에서 "NO"), 표시제어유닛(110) 테이블의 이 인덱스에서 현재 처리중인 제 1화상 파일을 등록한다( 스텝 S309).
도 5에서는, 제 1인덱스의 비노출 부분이 IMG001. JPG의 초점위치 정보와 동등한 "좌측"이기 때문에, "좌측"의 초점위치 정보를 가진 화상파일명 IMG001. JPG는 등록되지 않는다. 2번째의 인텍스의 비노출 부분이 상기 화상파일 IMG001. JPG의 초점위치 정보와 다르기 때문에, 화상파일 IMG001. JPG가 테이블의 제 2인덱스에 등록된다.
이런 방식으로, 표시제어유닛(110)은 테이블의 인덱스의 오름차순으로 비어 있는 장소를 찾아낸다. 표시제어유닛(110)이 비어있는 위치를 찾아내면, 표시제어유닛(110)은 인덱스에 대응한 비노출 부분과 화상 파일의 초점 위치 정보를 비교한다. 그들이 같으면, 표시제어유닛(110)은 다음의 테이블에 대해서 동일한처리를 실시한다.
마찬가지로, 표시제어유닛(110)은 2번째, 3번째 및 다음의 화상 파일을 메모리 카드에 처리를 계속한다. M(M=화상 파일의 총수)번째의 화상파일의 처리가 끝나면, 표시제어유닛(110)은 테이블에 등록된 내용에 따라 각 화상 파일에 표시처리를 실시한다. 표시 제어유닛(110)은 화상입력유닛(105)을 개재하여 메모리 카드로부터 이 화상 파일의 각 데이터를 읽어(스텝 S314), 화상 처리유닛(106)으로 읽은 데이터를 보낸다(스텝 S314). 상기 화상 처리유닛(106)은 상기 데이터를 디코드하고(스텝 S314), 비디오메모리(107)에 표시 데이터를 기입함으로써 화상을 표시한다(스텝S319).
도 3에 도시된 처리에 의해, 모든 화상의 표시를 하면, 유저는 리모트 컨트롤러의 상하 좌우 키를 조작하여 커서를 움직여, 소망의 화상을 선택한다. 소망의 화상을 커서가 가리키는 동안에 유저가 결정 버튼을 누르면, 선택된 화상만을 모니터 화면에 표시할 수가 있다. 이들 처리는 특별히 도시하지 않은 것에 유의한다.
(작용 및 효과)
이상 설명한 표시 제어유닛(110)의 처리에 의해 실행된 처리의 결과로 얻어진 작용에 대해 설명한다. 도 6a는 "좌측"의 초점위치 정보를 가진 화상 파일 IMG001.jpg가 상기의 처리에 의해 "1"(도 4, 도 5, 도 6a 및 도 6b, 도 10a 내지 도 10f, 도11a 내지 도11f 및 도13a 내지 도13c에서 원숫자를 따옴표로 둘러 싸인 숫자로 대치하는 것에 유의)의 위치는 아니고, "2"의 위치에 배치된 상태를 나타낸다. 결과로서, 이 화상 파일의 좌측의 피사체 부분(주목영역)이 노출된다. 예를 들면, 도 14b에 도시된 바와 같이 "1"의 위치에 화상파일 IMG001.jpg가 배치된 경우와 비교하여, 유저는 용이하게 이 사진 화상파일을 찾아낼 수 있다.
즉, 본 발명의 제 1실시예에 의하면, 각 사진의 정보특성에 의거하여 그 사진의 판별에 적합한 부분을 노출시킬 수 있다.
본 실시예에서, 촬영시에 기록된 초점위치 정보를 판별에 이용한다. 대안적으로, 디지털 카메라가 촬영장면의 모드로서 피사체 위치 또는 초점위치가 고정된 모드를 설정 가능한 경우에는, 이 촬영장면 모드의 정보를 이용할수 있다. 예를 들면 도 16에 도시된 바와 같이 "인물 우측" 및 "인물좌측"의 촬영장면 모드를 가진디지털카메라를화상 촬영에 이용하여, 이 화상의 Exif 헤더 정보가 "인물 우측"의 정보를 포함한 경우, 화상의 우측 부분을 노출하도록 화상파일 리스트의 위치를 제어한다. 이와 같이, 상기 설명과 같은 작용을 얻을 수 있다.
본 실시예에서, 설명을 간편하게 하기 위하여 모니터 화면상에 한번에 12매의 사진 밖에 표시하지 않는 예를 설명하였다. 모니터 화면상에 한번에 표시가능한 화상의 매수를 12매보다 더 큰 매수를 설정하여도 된다.
<제 2실시예>
본 발명의 제 2실시예에 대해 설명한다. 본 실시예에서 이용된 디지털 텔레비젼 수신기의 구성은 도 1에 도시된 구성과 같고, 여기서는 설명은 생략 한다.
제 2실시예에서는, 제 1실시예에서 이용된 것과 마찬가지의 디지털카메라를 이용하여 촬영된 디지털 화상을 이용한가. 그러나, 제 2실시예에는 디지털카메라가 특히 촬영 일시의 정보, 촬영시의 카메라의 방향에 대한 정보(즉 가로방향 사진 또는 세로방향 사진을 나타내는 정보)와 촬영시의 촬영장면모드로서 "오토 모드" "풍경 모드" "인물 모드" 또는 "야간 모드"의 모드 설정을 기록하는 것이 여 제 1실시예와 다르다. 본 실시예에서는, 촬영장면모드의 설정에 관한 정보가 촬영 모드에 관한 정보에 상당한다.
(처리 동작)
본 실시예에 의한 디지털 텔레비젼 수신기(100)에서, 디지털 화상파일의 리스트의 표시는, 유저가 카드 슬롯(109)에 메모리 카드를 삽입하고, 리모트 컨트롤러(114) 조작에 의해 화상뷰어 기능을 호출하는 경우에 개시된다.
도 7은 표시 제어유닛(110)에 의해 실행된 동작을 중심으로 디지털 텔레비젼 수신기에서 화상 뷰어 기능의 일부의 동작을 나타내는 흐름도이다. 도 8a 및 도 8c는 도 7에 도시된 처리로 이용되는 노출제어 마스크의 종류를 나타낸다. 노출 제어 마스크는 초점위치 또는 촬영장면 모드에 따라 노출량 및 노출 위치가 다른 것이 준비되어 있다. 표시 제어유닛(110)의 처리동작은 도 7 및 도 8a 및 도 8c를 참조하면서 설명한다.
표시 제어유닛(110)은 메모리 카드에 기록된 화상파일의 총수를 취득하고 (스텝 S701), 첫번째의 화상 파일 Exif 헤더 정보를 읽는다(스텝 S702).
제 1화상데이터의 Exif 헤더 정보에 초점위치 정보가 포함된 경우(스텝 S704에서 "NO"), 도 8a에 도시된 3개의 노출 제어 마스크 즉, 좌측 노출용 마스크, 중앙 노출용 마스크 및 우측 노출용 마스크 중에서 초점위치 정보에 대응한 초점 위치를 가진 노출제어 마스크를 선택한다(스텝 S705). 화상 파일에 Exif 헤더 정보의 초점위치 정보가 포함되지 않고(스텝 S704에서 "YES"), 촬영장면 모드 정보가 포함돠는 경우에(스텝 S706에서 "NO"), 도 8b에 도시된 노출제어 마스크 중에서, 촬영장면 모드 정보에 대응한 노출 제어 마스크를 선택한다(스텝 S707). 화상파일에 Exif 헤더 정보에 초점 위치 정보도, 촬영장면 모드 정보도 포함하지 않는 경우에, 표시 제어유닛(110)은 도 8에 도시된 표준 노출 마스크로 선택한다(스텝 S708).
다음의 화상파일에 대해서, 표시 제어유닛(110)은 마차가지의 처리를 실시하여, 각 화상데이터에 대해서 노출제어 마스크를 결정한다(스텝 S709, S710, S703및 그 이후).
도 9는 표시 제어유닛(110)에 의해 실시된 표시 처리를 나타낸 흐름도이다. 도10a 내지 도10f는 본 실시예에서 이용된 화상데이터를 나타내고 도 9에 도시된 표시제어하에 모니터 화면상에 화상파일의 상태를 나타낸다. 도 10a는 본 실시예에서 이용된 화상파일를 나타낸 도이다. 도10a 내지 도10f에서, 대안적으로 "좌측", "중앙" 및 "우측"의 초점 위치 정보를 가진 "1" 내지 "10"으로 표시되고 여기서 이용된 화상파일은 이순서로 배치된다.
도 9 및 도10a 내지 도10f를 참조하면서 표시처리를 설명한다.
표시 제어유닛(110)은 메모리 카드로부터 제 1화상 파일의 썸네일 화상을 읽어내(스텝 S901 및 S902), 화상처리 유닛(106)은 썸네일 화상을 디코드하고(스텝 S903), 도 7에 도시된 처리에서 선택된 노출제어 마스크를 사용하여 상기 디코드된 화상파일에 마스크 프로세싱을 실시한다(스텝 S904). 이 마스크 프로세싱으로서는, 각 화소의 데이터가 노출 부분인가 비노출 부분인가를 나타내는 플래그 데이터를 묻는 처리를 실시한다.
본 실시예에서는, 청색성분 화소(0 ~ 255 비트)의 하위 1비트를 플래그 데이터로서 사용한다. 즉, "0"의 하위 1비트를 가진 청색 성분 화소는 비노출 부분, "1"의 하위 1비트를 가진 청색 성분 화소는 노출 부분을 의미한다.
다음에 표시 제어유닛(110)은 처리중의 화상을 모니터 화면상의 미리설정한 기준 위치에 배치한다(스텝 S905). 본 실시예에서는 기준위치를 모니터 화면상에서 리스트로서 표시될 영역의 좌단으로 설정한다. 화상파일을 배치하고자 하는 영역아래에 노출 부분을 나타내는 플래그 데이터를 포함한 화소가 존재하는지 여부를 결정한다(스텝 S906). 첫번째의 화상파일에 대해서는 다른 화상은 없기 때문에, 첫번째 화상파일이 그대로 기준 위치에 배치된다.
노출된 위치를 나타내는 플래그 데이터가 첫번째 화상파일 아래에 이미 존재하는 경우에 즉 첫번째 화상파일과 마찬가지로 표시 제어유닛(110)이 2번째의 화상 파일을 처리하면서 다른 화상파일의 노출된 부분과 2번째의 화상파일이 겹쳐지는 경우에(스텝 S907 및 S908), 표시 제어유닛(110)이 일정한 화소의 수만큼 배치된 2번째 화상파일을 우측으로 이동하고, 이에 의해 2번째 화상파일을 재배치한다(스텝 S909).
도 10b는 2번째 화상파일 까지의 표시 처리가 끝난 상태를 나타낸다. 구체적으로, 2번째 화상파일은 배치처리에 의해, 처음 기준 위치에 배치된다. 그러나, 2번째 화상파일이 첫번째 화상파일의 노출 부분과 겹쳐지기 때문에, 2번째의 화상파일의 위치는 우측방향으로 움직인다. 2번째의 화상파일과 첫번째 화상파일의 노출부분의 겹침이 없는 경우에, 배치 처리를 끝낸다.
다음에, 3번째 화상파일을 처리한다. 이 처리동안에, 3번째 화상파일이 처음에 기준위치에 배치되고, 첫번째 화상파일의 노출부분과 겹쳐진다. 3번째 화상파일의 위치를 움직이고, 이에 의해 3번째 화상파일을 재배치한다. 그러나, 도 10a으로부터 알 수 있는 바와 같이, 이 예에서 3번째 화상파일은 "우측"의 초점 위치 정보를 가진 사진이다. 따라서, 3번째 화상파일에 대해서는, 표시 제어유닛(110)은 도 7에서 도시된 처리의 우측 노출용 마스크로 선택한다. 따라서, 이 경우에, 표시 제어유닛(110)은 기준 위치에 대해 상대적으로 좌측방향으로 3번째 화상파일을, 다른 화상파일의 노출부분과 3번째 화상파일이 겹치지 않는 위치까지 움직이고(스텝 910) 이에 의해 3번째 화상파일을 재배치한다. 이 때, 3번째 화상이 점선으로 둘러싼 리스트 표시영역으로부터 튀어나오지 않도록, 표시 제어유닛(110)은 이미배치된 화상파일(본 실시예에서는 첫번째 및 2번째 화상파일)을 우측으로 슬라이드시킨다. 또한, 표시 제어유닛(110)에 의해 기준위치를 첫번째 화상파일 및 2번째 화상파일과 동일한 양만큼 우측으로 이동한다(스텝 S913). 도 10c는 이 상태를 나타낸다.
4번째 화상파일 및 그이후의 것에 대해서도 같은 처리를 실시하고, 도 10d 내지 도 10f에 도시된 바와 같이 배치 처리를 처리한다.
(작용 및 효과)
상기 표시 제어유닛(110)에 의해 실시된 처리의 결과로서 얻어진 작용을 설명한다. 그 설명 전에, 도 11a 내지 도 11f룰 참조하면서, 본 발명에 적용되지 않는 표시의 예를 설명한다. 도 11a은 본 발명을 적용하지 않고 단순하게 서로 겹쳐진 화상파일을 표시하는 표시예를 나타낸다. 모든 화상파일이 도 11b에 도시된 바와 같이 중앙 부분에 초점위치가 있는 경우에는, 도 11c에 도시된 바와 같이 실질적으로 초점위치의 전체가 노출 된다. 그러나, 도 11 d에 도시된 바와 같이, 초점위치가 중앙이 아닌 화상파일을 포함하는 화상파일이 리스트로 표시된 경우에는, 도 11e에 도시된 바와 같이, 화상의 일부의 노출된 부분이 상당히 숨겨진다.
유저가 본 실시예에서 이용한 것 같은 디지털카메라를 이용하여 복수의 초점 위치를 가진 화상을 촬영할 경우, 유저가 중요하다고 생각하고 있는 부분에 초점을맞추고 있는 것을 확인하면서 촬영하는 것이 보통이다. 즉 화상파일이 숨겨진 초점위치에 가까운 영역으로 표시되는 경우, 흔히 유저가 중요하다고 생각하는 피사체, 즉 화상파일을 판별하기 위해 중요한 부분을 숨기고 있다는 것을 의미한다.
상술한 바와 같이 본 실시예에 의한 표시 제어유닛(110)의 표시처리를 실행한 경우에는, 콘트라스트에 의해, 모든 화상에파일을 각각의 초점위치 가까이의 영역이 숨겨지지 않고 표시할 수 있다.
또, 도 11a 내지 도 11f에 도시되어 있지는 않지만, 도 7 및 도 8a 및 도 8b를 참조하면서 상술한 노출제어 마스크의 선택 처리의 "풍경모드" 또는 "인물모드" 등의 촬영장면 모드에서 노출 제어마스크를 절환함으로써, 화상파일의 초점 위치 정보가 없는 경우에도, 그 사진의 촬영모드에 따라 노출 부분 및 노출량을 제어할 수 있다. 예를 들면, 화상파일이 풍경 사진의 경우에는, 풍경 전체가 유저에 대해서 "인상"으로서 남아 있는 경우가 많다. 이 때문에, 화상을 판별하고 선택하기 위해서는 화상파일의 노출부분을 증가시킬 필요가 있다. 화상파일이 인물사진의 경우에는, 많은 경우에 안면을 판별할 수 있도록 화상파일을 노출하기에 충분하고, 화상의 노출부분을 증가시킬 필요는 없다.
상기 제어에서 각 화상파일의 촬영장면 모드를 반영하면서 이와같이 제어를 행함으로써, 판별하기 용이함을 유지하면서 화상파일의 특성에 따라서 효율적인 화상파일을 배치하는 것이 가능하다.
제 2실시예에서는, 화상파일을 겹치면서 정렬하고자 하는 화상파일을 횡으로 배치하는 예를 화상의 리스트를 표시하는 방법으로서로 만 설명하였다. 그러나, 본발명의 개념의 견지에서는, 화상표시방법이 본실시예에서 설명된 것에 제한 되지 않는 것이 당연하다. 본 발명은 종으로 화상파일을 표시하는 예 및 상기 화상파일을 종으로, 횡으로 양자 모두 표시하는 예에도 적용가능하다.
본 실시예에서, 노출제어 마스크를 사용한 마스크 프로세싱의 플래그로서 청색 성분 화소의 하위 1비트의 이용에 대해 설명하였다. 그러나, 본 발명의 개념의 견지에서는 본 실시예에서 설명된 것에 한정되는 것이 아닌것이 당연하다. 본 발명은 화소 마다 전용의 플래그 비트를 형성하는 예 및 알파 브렌드 비율을 나타내는 데이터의 비트를 이용하는 예에 적용할 수도 있다.
본 실시예에서, 촬영장면 모드의 두가지 종류를 "풍경 모드" 및 "인물모드" 만을 예로서 취하였다. 본 발명에 의한 촬영모드는 물론, 그것들에 한정되지 않는 다. "야경 모드" 및 " 매크로 장면 모드"를 마찬가지로 이용할 수 있다.
<제 3실시예>
상기 제 2실시예에서는, 초점위치 정보, 촬영장면 모드 정보 등의 Exif 헤더 정보에 의거하여 효율적이고, 판별하기 용이하도록 화상파일을 배치한다. 본 발명의 요점에 비추어서, 상기 배치에 이용된 EXif 정보는 이들 정보에 한정되지 않는다. 예를 들면, 촬영일시정보에 의거하여 상기 화상파일을 효율적으로 배치할 수 있다.
본 실시예에서 이용된 디지털 텔레비젼 수신기는 도 1에 도시된 구성과 동일하므로, 여기서는 설명은 생략 한다.
(처리 동작)
도 12는 표시제어유닛(110)에 의해 실행된 동작을 중심으로 디지털 텔레비젼 수신기의 화상뷰어 기능의 일부의 동작을 나타낸 흐름도이다
도 13a는 본 실시예에서 이용된 화상파일을 나타낸다. 화상파일은 시계열로배치되고 각 화상아래에는 촬영시간이 나타난다.
표시 제어유닛(11O)은 메모리 카드로부터 첫번째의 화상 파일의 Exif 헤더 정보를 읽어낸다(스텝 S1001 내지 S1002), 게다가 첫번째 화상파일의 썸네일 화상화상을 읽어낸다(스텝 S1003). 읽어낸 화상 파일을 화상처리유닛(106)에 보내고, 상기 화상처리유닛(106)은 화상파일을 디코드 처리를 실시한다(스텝 S1004).
다음에, (N-1)번째의 화상의 촬영시간을 읽어낸다(스텝 S1005). N번째 화상파일의 촬영시간과 (N-1)번째 화상파일의 촬영시간과의 차이가 10초 이내이면(도 13a 내지 도 13c에서는 "5" 및 "6" 위치의 파일), 표시 제어유닛(11O)은 N번째 화상파일와 (N-1)번째 화상파일과 사이의 겹침양을 크게 설정하도록 화상 디스플레이를를 제어한다(스텝 S1206 내지 S1207). N번째 화상파일과 (N-1)번째 화상파일 사이의 촬영시간의 차이가 10초를 초과하는 경우에는, 표시 제어유닛(11O)은 그들 사이에 소정의 통상량으로 겹침량이 설정되도록 화상 디스플레이를 제어한다(스텝 S1006 및 S1008).
마찬가지로, (N+1)번째 및 그 이후의 화상파일에 대해서도 동일한 처리를 실행한다. 메모리 카드에 기록된 모든 화상파일에 대해서 상기 처리를 실행하면, 처리를 종료한다(스텝 S1009 및 S1010).
화상디스플레이를 이와같이 제어함으로써, 도 13c에 도시된 바와 같이 리스트로서 화상파일을 나타낸다.
(작용 및 효과)
상기 처리에 의해, 모든 화상파일을 동일한 겹침량으로 서로 겹쳐진 예와 비교하면(도 13b), 보다 많은 화상파일을 본 실시예에 의한 모니터 화면상에 한번에배치할 수 있다. 촬영 시간차이가 10초 이하인 경우, 화상파일 중에서 하나의 화상파일만 다른 화상파일(도 13c에서 위치 "4" 및 위치 "5"에서의 파일) 보다 많이 노출된다(도 13c에서 위치 "6"에서의 파일). 노출 부분이 감소되기 때문에, 사진의 판별을 위해는 바람직하지 않은 것으로 생각된다. 그러나. 본실시예에서 알수 있는 바와 같이 촬영시간 차가 작은 화상파일에 대해서, 유저는 노출이 많은 화상파일 (위치 "6"에서의 파일)로부터, 노출의 적은 화상파일(위치 "4" 및 위치 "5"에서의 파일)의 내용을 추정할 수 있다. 따라서, 화상파일의 선택에 대해서 일반적으로 이것은 장해가 되지는 않는다.
환언하면, 본 실시예에 의한 표시 제어유닛(110)으로 실행된 처리에 의해 화상파일 중의 촬영시간의 차이에 따라서 효율적인 화상파일의 리스트의 표시를 할수 있다.
<제 4실시예>
도 17은, 제 4실시예에 의한 화상 표시장치의 구성을 나타낸 블럭도이다.
(1101)은 화상 표시장치를 나타낸다. (1201)은 화상 표시장치 (1101)의 전체를 제어하는 제어 CPU이다. (1203)은, 액정 디스프레이 또는 플라스마 디스플레이 등의 박막디스플레이 실현할 수 있는 있는 디바이스로 구성된 화상 표시유닛이다.화상 표시유닛(1203)은, 제어 CPU(1201)에 의해 지시받은 화상파일을 표시한다. 본 실시예서는, 제어 CPU(1201)가 겹침 결정유닛 및 노출 결정유닛에 상당하고, 화상 표시유닛(1203)이 표시기에 상당한다.
화상 표시장치(1101)는, 본 발명의 특징인 복수 화상파일을 서로 겹치면서 복수의 화상파일의 리스트도 표시한다.
(1205)는, 하드 디스크등의 불휘발성 기억장치로부터 구성된 화상 축적유닛을 나타낸다. 화상 축적유닛(1205)에 의해, 디지털카메라 또는 디지털 비디오 카메라로 촬영되어 화상 표시장치로 페치(fetch)된 대량의 화상을 축적하여 기억한다.
(1207)은 메모리 카드를 나타낸다. 메모리 카드(1207)는 착탈 가능하다. 메모리 카드(1207)는 디지털카메라나 디지털 비디오 카메라등의 화상 촬영장치와도 접속이 가능하다. 이 메모리 카드(1207)을 경유하여, 촬영된 화상파일을 화상표시장치(1101)내에 페치될 수 있다.
(1209)는 외부 입력 단자를 나타낸다. 이 단자(1209)를 경유하여, 디지털카메라 또는 디지털 비디오 카메라 등의 화상 촬영장치에 의해 촬영된 화상파일을 화상 표시장치(1101)내에 직접 페치될 수 있다.
(1211)은 화상 디코더유닛을 나타낸다. 화상 축적유닛(1205)이나 메모리 카드(1207)내에 기억된 화상파일의 포멧 또는 외부입력 단자(1209)로부터 페치된 화상파일의 포맷은 제어 CPU(1201)등의 화상 표시장치(1101)의 구성요소에 의해 취급할 수 있는 데이터 포맷으로 변환된다.
(1213)은 안면검출 처리유닛을 나타낸다. 안면검출 처리유닛(1213)은 페치된화상파일 내에 인물상이 있는지의 여부를 판단한다. 인물상이 있는 경우에는, 인물상의 영역을 특정하는 처리를 행한다. 처리의 상세한 것에 대하여는, 후술 한다.
(1215)는 캐시메모리를 나타낸다. 캐시메모리(1215)는 화상 디코더(1211)에 의해 디코드된 화상파일을 일시적으로 기억하고, 화상 표시유닛(1203)에 의해 표시된 화상파일을 기억하고, 안면검출 처리유닛(1213)에 대해서 일시적으로 화상파일을 기억하는 등에 사용된다.
도 18은, 주목영역 검출의 한 방법으로서 사용되고 있는 안면검출 처리의 처리 흐름을 나타낸 흐름도이다.
화상파일을 서로 겹치면서 화상파일의 리스트의 표시를하기 전에, 안면검출 처리유닛(1213)은 대상 화상파일을 표시하는 안면검출 처리를 실행한다. 처리가 개시되면, 스텝 1101이 실행된다.
스텝 1101에서는, 화상파일 내에 포함된 색 데이터로부터 살색 데이터가 포함되는 영역을 찾아내는 처리를 실행한다. 이 후, 스텝 1103이 실행된다.
스텝 1103에서는, 안면의 특징을 나타내는 패턴, 예를 들면, 눈 및 입의 화상 패턴과 대상 화상파일이 매칭되는지 여부를 판단하는 패턴매칭 처리를 실행한다. 처리 후, 스텝 1105이 실행된다.
스텝 1105에서는, 스텝 1101 및 스텝 1103의 처리 결과에 의거하여, 즉 대상 화상파일 내에 안면영역이 존재하는지 여부에 의거하여, 처리를 분기한다. 즉 안면 영역이 존재하면, 처리를 스텝 1107으로 진행한다. 안면 영역이 존재하지 않으면, 본처리는 종료 된다.
스텝 1107에서는, 스텝 1101 및 스텝 1103의 처리 결과에 의해 안면영역으로서 판단된 영역의 정보를 캐시메모리(1215)에 기입하고, 제어 CPU(1201)에 처리를 복귀한다. 이에 의해, 안면검출 처리유닛(1213)의 처리는 종료가 된다.
도 19a는, 화상파일의 일례를 나타낸다. 도 19b는, 안면검출 처리의 안면 영역의 판정 결과에 의거한 주목 영역의 범위 결정 처리의 일례를 나타낸다.
도 19a에 도시된 바와 같이, 인물상이 존재한 화상파일을, 안면검출 처리유닛(l213)에 의해 도 18을 참조하면서 설명한 처리흐름에 의해 안면검출 처리를 실행한다. 도 19b에 도시된 바와 같이, 안면 영역으로서 판단한 영역은 (1303) 및 (1305)으로 표시된 부분이다. 도 19b에 도시된 바와 같이, 안면영역은 원형 그래픽 - 데이터로서 인식된다.
안면검출 처리로 검출된 안면영역을 주목 영역으로서 판단하여 화상파일을 서로 겹치면서 화상파일의 리스트의 표시의 제어에 적용하고 있다.
안면검출 처리는, 피사체로서의 안면이 화상파일 모두에 차지하는 비율이 큰 경우는 검출율이 좋다. 차지하는 비율이 낮은 경우, 안면 검출처리 유닛이 안면영역을 검출하지 못하는 경우가 있다. 이 경우의 처리에 대해, 도 20a 및 도 20b를 참조하면서 설명한다.
도 20a는, 화상파일의 일례를 나타낸다. 도 20b는, 촬영정보에 의거한 주목 영역의 범위 결정처리의 일례를 나타낸다.
디지털카메라 등에 의해 촬영된 화상파일에는, 촬영시의 정보를 화상파일내 에 유지할 수가 있다(Exif 정보). 이 Exif 정보에는 촬영시의 위치 정보가 포함되어 있다. 따라서 본 발명에 의하면, 안면검출 처리가 실패했을 경우, Exif 정보에 포함된 초점위치 정보를 읽어낸다. 상기 초점위치 정보는 도 20a에서 (1403) 및 (1405)로 나타낸 영역에 상당한다.
이 초점위치 정보에 의거하여, 위치정보를 포함한 원으로 나타나는 범위를 주목 영역으로서 인식하고 있다. 상기 주목영역은 도 20b에서 (1407)로 나타낸 범위에 상당한다.
이 방식으로, 대상 화상파일로부터 안면 영역을 검출할 수 없는 경우에, Exif 정보의 초점위치 정보에 의거하여 주목 영역을 판단한다.
도 21은, 주목영역 결정처리의 처리 흐름을 나타낸 흐름도이다.
본 처리는, 화상파일을 서로 면서 겹치면서 화상파일의 리스트의 표시제어 이전에 실행한다. 처리가 개시되면, 스텝 1201이 실행된다.
스텝 1201에서는, 화상축적유닛(1205), 메모리 카드(1207) 및 외부입력단자 (1209)로부터 화상파일를 읽어서, 화상디코더(211)에 의해 디코드하고, 캐쉬 메모리(215)에 화상파일이 기억된다. 이 후, 스텝 1203이 실행된다.
스텝 1203에서는, 읽어낸 화상파일에 대해서, 도 18을 참조하면서 설명한 안면검출 처리유닛(1203)에 의해 실행된 안면검출 처리를 호출한다. 이 후, 스텝 1205이 실행된다.
스텝 1205에서는, 안면검출 처리 결과에 의거하여 안면영역이 존재하는지의 여부에 따라 처리를 분기한다. 안면영역이 존재하는 경우, 처리를 스텝 1207에 진행한다. 안면영역이 존재하지 않은 경우에는, 처리를 스텝 1209에 진행한다.
스텝 1207에서는, 대상 화상파일 내에 안면영역이 존재한다고 판단되었으므로, 캐시메모리에 기억된 안면영역 데이터를 대상 화상파일의 주목영역 데이터로서 등록하는 처리를 실시한다. 등록 처리 후, 본처리는 종료가 된다.
스텝 1209에서는, 대상 화상파일에 Exif 정보가 포함돠는지 여부에 따라 처리를 분기한다. Exif 정보가 존재하는 경우에는, 처리를 스텝 1211에 진행한다. Exif 정보가 존재하지 않으면, 처리를 스텝 1215에 진행한다.
스텝 1211에서는, Exif 정보를 대상 화상파일로부터 읽어들여, 초점 위치 정보를 읽어내는 처리를 더 실시한다. 이 후, 스텝 1213이 실행된다.
스텝 1213에서는, 도 20a와 도 20b을 참조하면서 설명한 초점위치 정보를 초점영역으로 변환하는 처리를 실행한다. 이 초점영역을 주목 영역으로서 등록한다. 등록 처리 후, 본 처리는 종료 된다.
스텝 1215에서는, 대상 화상파일에 안면 영역이 존재하지 않고, 대상 화상파일로부터 Exif 정보의 취득도 할 수 없기 때문에, 화상의 중심 위치를 주목 영역으로서 등록한다. 등록 처리 후, 본 처리는 종료 된다.
위에서 설명한 처리는, 화상파일을 서로 겹치면서 리스트로서 표시하고자 하는 모든 화상파일에 대해서 실행된다.
도 22a는, 무작위로 화상을 서로 겹치면서 표시했을 경우의 일례를 나타낸다. 도 22 b는, 주목 영역의 크기를 고려하여 화상을 서로 겹치면서 표시했을 경우의 일례를 나타낸다.
복수 화상파일을 서로 겹치는 동안 복수의 화상파일의 리스트의 표시에서는, 각 화상파일( 1501, 1503, 1505)의 각각의 주목영역 부분( 1701, 1703, 1705)의 영역을 보호 영역으로서 항상 모니터 화면상에 표시한다. 이것에 의해 유저의 검색성을 개선한다. 또 각 화상 파일의 주목영역 이외의 영역은, 다른 화상파일에 의해 숨겨질 비주목 영역으로서 배치됨으로써, 효율적으로 화상파일을 표시할 수가 있다.
도 22a에서 도시된 바와 같이 무작위로 화상파일을 서로 겹치는 동안 화상파일을 표시하는 예와 비교하면, 도 22 b에 도시된 바와 같이 넓은 주목영역을 가진 화상파일이 좁은 주목영역을 가진 화상파일 위에 놓여지도록 화상파일을 서로 겹치면서 화상파일을 표시한 경우에, 모니터화면을 유효하게 사용할 수 있다. 이 처리를 도입함으로써, 한층 더 효율적으로 화상파일을 표시할 수가 있다.
도 23은, 겹침 표시 처리의 처리 흐름을 나타낸 흐름도이다.
본 처리는, 유저가 화상파일을 서로 겹치면서 화상파일의 리스트의 표시를 선택한 경우에 실행된다. 처리 개시 돠면, 스텝 1301이 실행된다.
스텝 1301에서는, 도 21을 참조하면서 설명한 주목영역 결정처리를 호출한다.
모든 표시 대상 화상화일에 대해서, 이 주목영역 결정처리를 실행한다. 이 후, 스텝 1303이 실행된다.
스텝 1303에서는, 스텝 1301의 주목영역 결정처리에 응답하여 각 화상파일의 주목 영역의 크기의 내림차순으로 화상파일을 재배치하는 처리를 실행한다. 이 후 후, 스텝 1305가 실행된다.
스텝 1305에서는, 화상파일을 나타내는 변수 N에 선두 화상파일을 나타내는 1이 설정된다. 이것은 N의 숫자가 커짐에 따라, 낮은위치에서 다른 화상파일과 겹쳐지면서 화상파일을 표시하는 것을 의미하고 있다. 이 후, 스텝 1307이 실행된다.
스텝 1307에서는, 변수 N으로 나타난 화상파일의 위치를 결정하는 처리를 행한다. 화상파일의 위치를 결정하기 위해서는, 난수에 의해 위치의 좌표를 얻는다. 화상파일의 위치의 결정에서는, 가능한한 주목영역이 많이 노출되고, 최대한 상위의 화상파일에 의해 비 주목영역이 숨겨지도록 그 좌표를 선택한다. 이 후, 스텝 1309이 실행된다.
스텝 1309에서는, 배치된 화상파일이 규제 각도 범위에 들어가는지 여부를 판단한다. 화상 표시 각도가 과도하게 크면, 유저는 보기 어렵다는 인상을 느끼게 된다. 화상파일이 제한각도 범위에 밖에 있다고 판단된 경우는, 처리를 스텝 1307에 복귀시킨다. 제한 각도범위내에 만났을 경우는, 처리를 스텝 1311으로 진행한다.
스텝 1311에서는, 배치된 대상 화상파일의 주목 영역에 상위 화상파일이 겹치고 있는지 여부를 판단한다. 대상 화상파일의 주목영역과 상위화상 파일이 겹치고 있다고 판단된 경우에는, 처리를 스텝 1307에 되돌린다. 대상 화상파일의 주목영역과 상위화상 파일이 겹치지 않고 있다고 판단된 경우에는, 처리를 스텝 1313으로 진행한다.
스텝 1313에서는, 변수 N이 표시 대상의 최종 화상파일을 나타내고 있는지 여부에 따라 처리를 분기 시키고 있다. 즉 최종 화상파일의 경우에는, 처리를 스텝1317으로 진행한다. 화상파일이 최종 화상이 아닌 경우에는, 처리를 스텝 1315로 진행한다.
스텝 1315에서는, 변수 N의 값을 1만큼 증분(increment)하고 이에 의해, 다음의 화상의 배치 위치를 결정하는 처리가 실행된다.
스텝 1317에서는, 모든 표시대상 화상파일의 배치 위치가 결정기 때문에, 화상 표시유닛(1201)에 화상파일을 서로 겹치면서 화상파일의 리스트를 표시할 수 있게 하는 처리를 호출하고 있다. 리스트를 표시한 후, 본 처리는 종료 된다.
도 24는, 화상 파일을 서로 겹치면서 화상파일의 리스트를 표시하는 하나의 실시예를 나타낸다. 도 24로부터 명백한 바와 같이, 화상 표시유닛(1201)상에 각 화상파일의 모든 주목 영역이 숨겨지지 않고 나타나고 있다.
<제 5실시예>
본 발명의 제 5실시예에 의한 화상 표시장치는 기본적으로 구성은, 도 21을 참조하면서 설명한 주목영역 검출에 대해 안면검출 처리보다 초점 위치 정보를 우선한 구성 이외에는 제 4실시예와 같다 .
도 25는, 본 실시예에 의한 주목영역 결정처리의 처리흐름을 나타낸 흐름도이다.
본 처리는, 화상파일을 서로 겹치면서 화상파일의 리스트의 표시의 제어의 이전에 실행한다. 처리가 개시되면후, 스텝 1401이 실행된다.
스텝 1401에서는, 화상 축적유닛(1205), 메모리 카드 (1207), 외부입력단자 (1209)로부터 화상파일를 읽어들여, 화상 디코더(211)에 의해 디코드하고, 캐쉬 메모리(215)에 화상파일를 기억한다. 이 후, 스텝 1403이 실행된다.
스텝 1403에서는, 대상 화상파일에 Exif 정보가 포함되는지의 여부에 따라 처리를 분기한다. Exif 정보가 존재하는 경우에는, 처리를 스텝 1407에 진행한다. Exif 정보가 존재하지 않는 경우에는, 처리를 스텝 1405에 진행한다.
스텝 1405에서는, 읽어낸 화상에 대해서, 도 18을 참조하면서 설명한 안면검출 처리유닛(1203)에 의해 실행된 안면검출 처리를 호출하고 있다. 이 후, 스텝 1411에 진행된다.
스텝 1407에서는, Exif 정보를 대상 화상파일로부터 읽어들여, 초점위치 정보를 Exif 정보로부터 더 읽어낸다. 이 후, 스텝 1409이 실행된다.
스텝 1409에서는, 도 20a 및 도 20b를 참조하면서 설명한 초점위치 정보로부터 초점위치 영역으로 변환하는 처리를 실행한다. 이 초점위치 영역을 주목 영역으로서 등록한다. 등록후, 본 처리는 종료 된다.
스텝 1411에서는, 안면검출 처리결과에 의거하여 안면영역이 존재하는지 여부에 따라 처리를 분기한다. 안면영역이 존재하는 경우, 처리를 스텝 1413에 진행한다. 안면영역이 존재하지 않는 경우, 처리를 스텝 1415에 진행한다.
스텝 1413에서는, 대상 화상파일 내에 안면영역이 존재한다고 판단되기 때문에, 캐시메모리에 기억된 안면영역 데이터를 대상 화상파일의 주목영역 데이터로서 등록한다. 등록후, 본 처리는 종료 된다.
스텝 1415에서는, 안면영역이 존재하지 않고, 대상 화상파일로부터 Exif 정보를 취득할 수 없으므로, 화상파일의 중심위치를 주목영역으로서 등록한다. 등록후, 본 처리는 종료 된다.
<제 6실시예>
제 6실시실시예에 의한 화상표시장치는, 주목 영역이 안면검출 영역과 촬영정보 사이의 논리합인 것을 제외하고는, 기본적으로 구성이 제 4실시예에 의한 구성과 같다.
도 26은, 주목영역을 검출한 결과를 나타낸다. 도 26에서, 영역(1501)이 안면검출에 의한 주목영역이고, 영역(1503)은 초점영역이고, 영역(1505)는 초점영역 (1503)으로부터 변환된 주목영역이다. 본 실시예서는, 주목영역이 영역(1501)과 영역(1505)의 논리합으로 된다.
<제 7실시예 >
제 7실시예에 의한 화상 표시장치는 기본적으로 구성이, 표시 제어유닛(110)의 동작의 흐름이 다른 것을 제외 하고는 제 2실시예에 의한 구성과 같다. 도 27은, 본 실시예에 의한 표시제어유닛(110)의 동작의 흐름을 나타내는 흐름도이다. 도 27에 도시된 처리에서 이용되는 노출제어 마스크의 종류는, 도 8에 도시된 것과 같다. 노출량 및 노출 위치의 노출제어 마스크는 초점 위치나 촬영장면 모드에 따라 다르게 준비되어 있다. 표시제어유닛(110)의 처리동작을 도 27 및 도 8a 내지 도 8c를 참조하면서 설명한다.
표시제어유닛(110)은 메모리 카드에 기록된 화상파일의 총수를 취득하고(스텝 S1501), 첫번째 화상파일의 안면검출을 실행한다(스텝 S1503 및 스텝 S1505).
대상의 화상파일 내에서 안면이 검출되었을 경우(스텝 S1507에서 "Yes"), 도8a에 도시된 좌측 노출용 마스크, 중앙 노출용 마스크, 우측 노출용 마스크의 3개의 노출 제어 마스크 중에 초점위치 정보에 대응한 초점위치를 가진 노출제어 마스크를 선택한다(스텝 S1509).
대상의 화상파일내에서 안면을 검출할 수 없는 경우(스텝 S1511에서 "No"), 초점위치 정보가 대상 화상파일에 존재하는지 여부를 판단한다(스텝 S1513). 초점위치 정보가 있는 경우, 표시제어유닛(110)은 도 8a에 도시된 노출마스크중의 하나를 선택한다(스텝 S1515).
초점위치 정보가 없는 경우(스텝 S1517에서 "No"), 표시제어유닛(110)이 Exif 정보를 읽어내고, 촬영장면 정보의 유무를 판단한다(스텝 S1517). 촬영장면이 존재하는 경우(스텝 S1517에서 "Yes"), 표시제어유닛(110)이 촬영장면 모드 정보에 대응한 노출제어 마스크를 선택한다(스텝 S1519).
이후의 화상파일에 대해서 마차가지 처리를 행하여, 각 화상 데이터를 위한 노출제어 마스크를 결정한다(스텝 S1523, 스텝S1505 및 이후 스텝).
본 발명의 화상 표시장치 및 화상 표시 방법에 의하면, 복수의 화상을 서로 겹치면서 리스트로서 복수의 화상을 표시한 경우에, 각 화상의 주목 영역이라고 생각되는 부분을 검출하고, 이에 의해, 이 주목 영역을 서로 겹치지 않도록 화상표시를 제어한다. 그 결과로서, 화상의 주목 영역 모두가 항상 노출될 수 있음으로써, 개선된 유저 화상 검색 성능과 화상의 대량 표시의 양자 모두를 실현할 수 있는 구성을 제공할 수 있다.
복수의 화상을 서로 겹치면서 리스트로서 복수의 화상을 표시할 경우에, 화상의 주목 영역의 크기의 내림차순으로 순차적으로 중첩되도록 상기 화상을 제어한다. 그 결과로, 복수의 화상을 서로 겹치면서 유저가 디지털 카메라를 이용하여 촬영한 대량의 디지털 화상을 모니터 화면상에 표시함으로써, 주목 영역의 노출 비율이 높은 리스트로서 상기 화상을 효율적으로 배치할 수 있다. 또한, 효율적으로 화상을 배치한 경우에도, 개개의 화상의 정보특성에 의거하여, 유저가 사진을 판별하기 위해 중요한 부분이 서로 겹치지 않도록 화상을 표시할 수 있다.
즉, 본 발명에 의하면, 유저가 용이하게 소망한 사진을 찾아낼 수가 있다.
또한, 복수의 화상을 서로 겹치면서 리스트로서 복수의 화상을 표시할 경우에, 주목영역이라고 생각되는 부분을 검출함으로써, 이 주목영역을 서로 겹치지 않도록 화상 디스플레이를 제어한다. 그 결과로, 각 화상의 모든 주목 영역이 항상 노출할 수 있음으로써, 개선된 유저 화상검색성능과 화상의 대량 표시의 양자 모두를 실현할 수 있는 구성을 제공할 수 있다.
게다가, 복수의 화상을 서로 겹치면서 리스트로서 복수의 화상을 표시할 경우에, 화상의 주목 영역의 크기순서의 내림차순으로 화상을 순차적으로 중첩하는 제어를 한다. 그 결과로, 주목영역의 노출비율이 높은 리스트로서 상기 화상을 효율적으로 배치할 수 있다.

Claims (18)

  1. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법으로서,
    상기 적어도 2개의 화상에 각각 관련된 관련정보를 취득하는 공정과;
    상기 취득한 관련정보에 의거하여 적어도 2개의 화상을 겹칠 때에 적어도 2개의 화상 중에 어느 것이 상부 위치에 배치되는 가를 결정하는 공정;
    을 포함하는 것을 특징으로 하는 화상표시방법.
  2. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법으로서,
    상기 적어도 2개의 화상에 각각 관련된 관련정보를 취득하는 공정과;
    상기 취득한 관련정보에 의거하여 적어도 2개의 화상중에 하나와 다른 화상이 겹친 결과로서 숨겨진 부분과 노출된 부분을 가진 적어도 2개의 화상중의 다른쪽의 노출량과 노출위치 중의 어느 하나 또는 양자 모두를 결정하는 공정;
    을 포함하는 것을 특징으로 하는 화상표시방법.
  3. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 다수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법으로서,
    적어도 2개의 화상의 안면영역을 각각 검출하는 공정과;
    상기 각각의 안면영역의 크기에 의거하여 적어도 2개의 화상을 겹칠 때에 적어도 2개의 화상 중에 어느 것이 상부 위치에 배치되는 가를 결정하는 공정;
    을 포함하는 것을 특징으로 하는 화상표시방법.
  4. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법으로서,
    적어도 2개의 화상의 안면영역을 각각 검출하는 공정과;
    상기 각각의 안면 영역의 위치에 의거하여 적어도 2개의 화상중에 하나와 다른 화상이 겹친 결과로서 숨겨진 부분과 노출된 부분을 가진 적어도 2개의 화상중의 다른 쪽의 노출량과 노출위치 중의 어느 하나 또는 양자 모두를 결정하는 공정;
    을 포함하는 것을 특징으로 하는 화상표시방법.
  5. 제 1항에 있어서,
    상기 관련정보는 촬영정보를 포함하는 것을 특징으로 하는 화상표시방법.
  6. 제 2항에 있어서,
    상기 관련정보는 촬영정보를 포함하는 것을 특징으로 하는 화상표시방법.
  7. 제 5항에 있어서,
    상기 촬영정보는 초점위치의 정보를 포함하고,
    초점위치를 포함한 영역의 크기에 의거하여 적어도 2개의 화상을 겹칠 때에 적어도 2개의 화상 중에 어느 것이 상부 위치에 배치되는가에 대한 결정을 하는 것을 특징으로 하는 화상표시방법.
  8. 제 6항에 있어서,
    상기 촬영정보는 초점위치의 정보를 포함하고,
    상기 초점 위치를 포함한 영역을 노출하도록 상기 노출량과 상기 노출위치중의 어느 하나 또는 양자 모두를 결정하는 것을 특징으로 하는 화상표시방법.
  9. 제 6항에 있어서,
    상기 촬영정보는 각 화상의 촬영일자의 정보를 포함하고,
    상기 노출량과 노출위치 중의 어느 하나 또는 양자 모두를 결정할 때에,
    적어도 2개의 화상중의 한 쪽의 촬영일자가 적어도 2개의 화상중의 다른 쪽의 촬영일자와 동일하거나 가까울 경우에 적어도 2개의 화상층의 다른 쪽의 노출량은, 적어도 2개의 화상중의 한 쪽의 촬영일자가 적어도 2개의 화상중의 다른 쪽의 촬영일자로부터 멀리 있을 경우에 적어도 2개의 화상중의 다른 쪽의 노출량 보다 적어지도록 상기 노출량이, 결정되는 것을 특징으로 하는 화상표시방법.
  10. 제 6항에 있어서,
    상기 촬영정보는 촬영모드의 정보를 포함하고,
    상기 촬영모드에 따라 영역을 노출하도록 상기 노출량과 상기 노출위치 중의 어느 하나 또는 양자 모두를 결정하는 것을 특징으로 하는 화상표시방법.
  11. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법을 실행하는 프로그램으로서,
    상기 적어도 2개의 화상에 각각 관련된 관련정보를 취득하는 공정과;
    상기 취득한 관련정보에 의거하여 적어도 2개의 화상을 겹칠 때에 적어도 2개의 화상 중에 어느 것이 상부 위치에 배치되는가를 결정하는 공정;
    을 포함하는 것을 특징으로 하는 프로그램.
  12. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법을 실행하는 프로그램으로서,
    상기 적어도 2개의 화상에 각각 관련된 관련정보를 취득하는 공정과;
    상기 취득한 관련정보에 의거하여 적어도 2개의 화상중에 하나와 다른 화상이 겹친 결과로서 숨겨진 부분과 노출된 부분을 가진 적어도 2개의 화상중의 다른 쪽의 노출량과 노출위치 중의 어느 하나 또는 양자 모두를 결정하는 공정;
    을 포함하는 것을 특징으로 하는 프로그램.
  13. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법을 실행하는 프로그램으로서,
    적어도 2개의 화상의 안면영역을 각각 검출하는 공정과;
    상기 각각의 안면영역의 크기에 의거하여 적어도 2개의 화상을 겹칠 때에 적어도 2개의 화상 중에 어느 것이 상부 위치에 배치되는 가를 결정하는 공정;
    을 포함하는 것을 특징으로 하는 프로그램.
  14. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하는 공정을 포함한 화상표시방법을 실행하는 프로그램으로서,
    적어도 2개의 화상의 안면영역을 가각 검출하는 공정과;
    상기 각각의 안면 영역의 위치에 의거하여 적어도 2개의 화상중에 하나와 다른 화상이 겹친 결과로서 숨겨진 부분과 노출된 부분을 가진 적어도 2개의 화상중의 다른 쪽의 노출량과 노출위치 중의 어느 하나 또는 양자 모두를 결정하는 공정;
    을 포함하는 것을 특징으로 하는 프로그램.
  15. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하도록 화상표시유닛에 화상신호를 공급하는 화상표시장치로서,
    상기 적어도 2개의 화상에 각각 관련된 관련정보를 취득하는 관련정보 취득유닛과;
    상기 취득한 관련정보에 의거하여 적어도 2개의 화상을 겹칠 때에 적어도 2개의 화상 중에 어느 것이 상부 위치에 배치되는가를 결정하는 겹침결정유닛;
    을 포함하는 것을 특징으로 하는 화상표시장치.
  16. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하도록 화상표시유닛에 화상신호를 공급하는 화상표시장치로서,
    상기 적어도 2개의 화상에 각각 관련된 관련정보를 취득하는 관련정보 취득유닛과;
    상기 취득한 관련정보에 의거하여 적어도 2개의 화상중에 하나와 다른 화상이 겹친 결과로서 숨겨진 부분과 노출된 부분을 가진 적어도 2개의 화상중의 다른 쪽의 노출량과 노출위치 중의 어느 하나 또는 양자 모두를 결정하는 노출결정유닛;
    을 포함하는 것을 특징으로 하는 화상표시장치.
  17. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하도록 화상표시유닛에 화상신호를 공급하는 화상표시장치로서,
    적어도 2개의 화상의 안면영역을 각각 검출하는 안면검출유닛과;
    상기 각각의 안면영역의 크기에 의거하여 적어도 2개의 화상을 겹칠 때에 적어도 2개의 화상 중에 어느 것이 상부 위치에 배치되는 가를 결정하는 겹침결정유닛;
    을 포함하는 것을 특징으로 하는 화상표시장치.
  18. 적어도 2개의 화상을 서로 겹치게 하면서 화면상에 복수의 화상을 동시에 표시하도록 화상표시유닛에 화상신호를 공급하는 화상표시장치로서,
    적어도 2개의 화상의 안면영역을 각각 검출하는 안면검출유닛과;
    상기 각각의 안면영역의 위치에 의거하여 적어도 2개의 화상중에 하나와 다른 화상이 겹친 결과로서 숨겨진 부분과 노출된 부분을 가진 적어도 2개의 화상중의 다른 쪽의 노출량과 노출위치 중의 어느 하나 또는 양자 모두를 결정하는 노출결정 유닛;
    을 포함하는 것을 특징으로 하는 화상표시장치
KR1020040045318A 2003-06-20 2004-06-18 화상표시방법, 프로그램 및 화상표시장치 KR100637741B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003176856 2003-06-20
JPJP-P-2003-00176856 2003-06-20
JP2004048430A JP4280656B2 (ja) 2003-06-20 2004-02-24 画像表示装置およびその画像表示方法
JPJP-P-2004-00048430 2004-02-24

Publications (2)

Publication Number Publication Date
KR20040111131A true KR20040111131A (ko) 2004-12-31
KR100637741B1 KR100637741B1 (ko) 2006-10-25

Family

ID=33554441

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040045318A KR100637741B1 (ko) 2003-06-20 2004-06-18 화상표시방법, 프로그램 및 화상표시장치

Country Status (4)

Country Link
US (3) US7600191B2 (ko)
JP (1) JP4280656B2 (ko)
KR (1) KR100637741B1 (ko)
CN (1) CN1312618C (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100708476B1 (ko) * 2005-10-20 2007-04-18 삼성전자주식회사 메모리카드의 성능을 고려한 영상화질 결정방법 및 이를적용한 촬영장치

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4280656B2 (ja) * 2003-06-20 2009-06-17 キヤノン株式会社 画像表示装置およびその画像表示方法
JP4208726B2 (ja) 2004-01-14 2009-01-14 キヤノン株式会社 画像表示装置、画像表示方法および画像表示プログラム
US7756362B2 (en) * 2005-01-28 2010-07-13 Canon Kabushiki Kaisha Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP2007057958A (ja) * 2005-08-25 2007-03-08 Seiko Epson Corp 表示制御装置及び表示制御方法
JP2007079641A (ja) * 2005-09-09 2007-03-29 Canon Inc 情報処理装置及び情報処理方法及びプログラム及び記憶媒体
JP5371174B2 (ja) * 2005-09-12 2013-12-18 キヤノン株式会社 画像表示装置及び画像表示方法
JP4297111B2 (ja) * 2005-12-14 2009-07-15 ソニー株式会社 撮像装置、画像処理方法及びそのプログラム
KR100714711B1 (ko) * 2006-01-05 2007-05-04 삼성전자주식회사 디지털사진 파일의 정렬 방법
US7864978B2 (en) * 2006-02-06 2011-01-04 Microsoft Corporation Smart arrangement and cropping for photo views
JP4724890B2 (ja) * 2006-04-24 2011-07-13 富士フイルム株式会社 画像再生装置、画像再生方法、画像再生プログラム及び撮像装置
KR20080020789A (ko) * 2006-09-01 2008-03-06 엘지전자 주식회사 슬라이드 쇼 점프 기능을 구비한 영상기기 및 그 제어방법
JP4310330B2 (ja) * 2006-09-26 2009-08-05 キヤノン株式会社 表示制御装置及び表示制御方法
KR101295567B1 (ko) * 2006-09-28 2013-08-12 엘지전자 주식회사 티브이 및 이를 이용한 선호 채널 제공 방법
US7876368B2 (en) * 2006-10-17 2011-01-25 Hewlett-Packard Development Company, L.P. Slimming effect for digital photographs
JP4888165B2 (ja) * 2007-03-12 2012-02-29 富士ゼロックス株式会社 画像処理装置及びプログラム
US8011998B2 (en) * 2007-04-12 2011-09-06 Lamarche Paul Expansible sanding block exhibiting oblique extending surfaces
JP2008289073A (ja) * 2007-05-21 2008-11-27 Noritsu Koki Co Ltd 撮影コマ画像処理装置とこれを組み込んだ写真処理システム
US8487957B1 (en) 2007-05-29 2013-07-16 Google Inc. Displaying and navigating within photo placemarks in a geographic information system, and applications thereof
JP4851406B2 (ja) * 2007-08-31 2012-01-11 富士フイルム株式会社 多眼撮影システムにおける調整用画像表示方法および多眼撮影システム
JP5281265B2 (ja) * 2007-10-02 2013-09-04 キヤノン株式会社 印刷処理方法およびそれを実現する情報処理装置
JP4458158B2 (ja) * 2007-12-07 2010-04-28 ソニー株式会社 表示装置、表示方法、及びプログラム
JP2009141780A (ja) * 2007-12-07 2009-06-25 Canon Inc 情報処理装置及び情報処理方法
JP2010026021A (ja) * 2008-07-16 2010-02-04 Sony Corp 表示装置および表示方法
JP5084682B2 (ja) * 2008-09-25 2012-11-28 キヤノン株式会社 画像処理装置、制御方法、プログラム及び記録媒体
JP2010128587A (ja) * 2008-11-25 2010-06-10 Sony Computer Entertainment Inc 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
US8797348B2 (en) 2008-11-25 2014-08-05 Sony Corporation Image display apparatus, image display method, and information storage medium
JP2010252008A (ja) * 2009-04-15 2010-11-04 Olympus Imaging Corp 撮影装置、表示装置、再生装置、撮影方法、および表示方法
US8179417B2 (en) * 2009-07-22 2012-05-15 Hewlett-Packard Development Company, L.P. Video collaboration
US9524087B2 (en) * 2011-05-20 2016-12-20 Kodak Alaris Inc. Imaging product selection method
JP5762142B2 (ja) * 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
CN102810042B (zh) * 2011-06-02 2015-04-29 宏达国际电子股份有限公司 影像缩图的版面产生方法及系统
JP5532018B2 (ja) * 2011-06-27 2014-06-25 コニカミノルタ株式会社 端末装置、プログラムおよびリモート操作システム
USD665395S1 (en) 2011-09-12 2012-08-14 Microsoft Corporation Display screen with animated graphical user interface
JP2013153429A (ja) * 2011-12-27 2013-08-08 Canon Inc 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム
US9049382B2 (en) * 2012-04-05 2015-06-02 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP6039401B2 (ja) * 2012-12-18 2016-12-07 キヤノン株式会社 印刷データ処理装置、印刷データ処理方法、およびプログラム
JP6116273B2 (ja) * 2013-02-13 2017-04-19 三菱電機株式会社 広告提示装置
JP6268891B2 (ja) 2013-10-07 2018-01-31 セイコーエプソン株式会社 コラージュ画像作成プログラム、コラージュ画像作成方法、及びコラージュ画像作成装置
JP2015097382A (ja) 2013-10-08 2015-05-21 キヤノン株式会社 情報処理装置、撮像システム、情報処理方法、及びプログラム
USD771118S1 (en) * 2014-03-27 2016-11-08 Google Inc. Portion of a display panel with a graphical user interface
JP6389801B2 (ja) 2015-05-27 2018-09-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
USD877175S1 (en) * 2018-06-04 2020-03-03 Apple Inc. Electronic device with graphical user interface
USD883319S1 (en) 2018-10-29 2020-05-05 Apple Inc. Electronic device with graphical user interface

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4478318A (en) * 1982-05-14 1984-10-23 Euclid, Inc. Vehicle brake system
DE3230970A1 (de) * 1982-08-20 1984-02-23 Bosch Gmbh Robert Mehrkreis-bremsanlage
JPH0727349B2 (ja) * 1985-07-01 1995-03-29 株式会社日立製作所 マルチウインドウの表示制御方式
US5060170A (en) * 1989-08-09 1991-10-22 International Business Machines Corp. Space allocation and positioning method for screen display regions in a variable windowing system
JPH04182696A (ja) * 1990-11-17 1992-06-30 Nintendo Co Ltd 画像処理装置
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
US6205259B1 (en) * 1992-04-09 2001-03-20 Olympus Optical Co., Ltd. Image processing apparatus
US5487143A (en) * 1994-04-06 1996-01-23 Altera Corporation Computer user interface having tiled and overlapped window areas
JP3636493B2 (ja) * 1994-12-16 2005-04-06 キヤノン株式会社 時系列データの表示方法及びそれを実現する情報処理装置
EP1515248A3 (en) 1994-12-16 2005-07-20 Canon Kabushiki Kaisha Hierarchical data display method and information processing system for realizing it
US5675755A (en) * 1995-06-07 1997-10-07 Sony Corporation Window system preventing overlap of multiple always-visible windows
US5963664A (en) * 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US6549681B1 (en) * 1995-09-26 2003-04-15 Canon Kabushiki Kaisha Image synthesization method
US5611199A (en) * 1995-12-13 1997-03-18 Caterpillar Inc. Two stage electrohydraulic pressure control valve
JP3614235B2 (ja) 1996-03-19 2005-01-26 富士通株式会社 情報探索装置
US5850232A (en) * 1996-04-25 1998-12-15 Microsoft Corporation Method and system for flipping images in a window using overlays
US6389179B1 (en) * 1996-05-28 2002-05-14 Canon Kabushiki Kaisha Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image
US5904228A (en) * 1996-08-09 1999-05-18 Case Corporation Brake control system and related method
US6254197B1 (en) * 1996-11-22 2001-07-03 Svendborg Brakes A/S Hydraulic braking system
KR100224320B1 (ko) 1996-12-18 1999-10-15 이계철 비디오와 그래픽 윈도우 제어 장치 및 그 제어 방법
US6512857B1 (en) * 1997-05-09 2003-01-28 Sarnoff Corporation Method and apparatus for performing geo-spatial registration
US6069606A (en) * 1997-05-15 2000-05-30 Sony Corporation Display of multiple images based on a temporal relationship among them with various operations available to a user as a function of the image size
US6259457B1 (en) * 1998-02-06 2001-07-10 Random Eye Technologies Inc. System and method for generating graphics montage images
US6473088B1 (en) * 1998-06-16 2002-10-29 Canon Kabushiki Kaisha System for displaying multiple images and display method therefor
US6744934B2 (en) 1998-07-23 2004-06-01 Fuji Photo Film Co., Ltd. Method, apparatus and recording medium for generating an image file having hierarchical image data representing a plurality of still images having different display dimensions
JP2000138814A (ja) 1998-10-30 2000-05-16 Minolta Co Ltd 画像レイアウト装置
JP2000137791A (ja) * 1998-10-30 2000-05-16 Minolta Co Ltd 画像評価装置
KR100361497B1 (ko) * 1999-01-08 2002-11-18 엘지전자 주식회사 얼굴영역 추출방법
JP2000276484A (ja) * 1999-03-25 2000-10-06 Konica Corp 画像検索装置、画像検索方法及び画像表示装置
US6891561B1 (en) * 1999-03-31 2005-05-10 Vulcan Patents Llc Providing visual context for a mobile active visual display of a panoramic region
US7098914B1 (en) * 1999-07-30 2006-08-29 Canon Kabushiki Kaisha Image synthesis method, image synthesis apparatus, and storage medium
EP1107064A3 (en) * 1999-12-06 2004-12-29 Olympus Optical Co., Ltd. Exposure apparatus
US20020033837A1 (en) * 2000-01-10 2002-03-21 Munro James A. Multiple-image viewer
JP4325075B2 (ja) 2000-04-21 2009-09-02 ソニー株式会社 データオブジェクト管理装置
JP2001312349A (ja) 2000-05-01 2001-11-09 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
JP4730571B2 (ja) 2000-05-01 2011-07-20 ソニー株式会社 情報処理装置および方法、並びにプログラム格納媒体
JP2001313883A (ja) 2000-05-01 2001-11-09 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
US7095905B1 (en) * 2000-09-08 2006-08-22 Adobe Systems Incorporated Merging images to form a panoramic image
JP3737690B2 (ja) 2000-09-28 2006-01-18 株式会社東芝 画像処理方法、画像処理装置及び画像処理プログラム
GB2370438A (en) * 2000-12-22 2002-06-26 Hewlett Packard Co Automated image cropping using selected compositional rules.
US6697124B2 (en) 2001-03-30 2004-02-24 Koninklijke Philips Electronics N.V. Smart picture-in-picture
JP4778158B2 (ja) 2001-05-31 2011-09-21 オリンパス株式会社 画像選出支援装置
JP4006961B2 (ja) * 2001-06-19 2007-11-14 セイコーエプソン株式会社 画像ファイル生成装置
GB2378340A (en) * 2001-07-31 2003-02-05 Hewlett Packard Co Generation of an image bounded by a frame or of overlapping images
JP2003078743A (ja) 2001-08-30 2003-03-14 Minolta Co Ltd デジタル画像入力装置、およびプログラム
US6970199B2 (en) 2001-10-05 2005-11-29 Eastman Kodak Company Digital camera using exposure information acquired from a scene
US7068309B2 (en) * 2001-10-09 2006-06-27 Microsoft Corp. Image exchange with image annotation
JP2003173304A (ja) 2001-12-04 2003-06-20 Sony Corp 情報提供システム、画像提供装置および方法、携帯情報処理装置および方法、並びにプログラム
JP4467267B2 (ja) * 2002-09-06 2010-05-26 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、画像処理装置、および画像処理システム
JP2004199248A (ja) * 2002-12-17 2004-07-15 Seiko Epson Corp 画像レイアウト装置、画像レイアウト方法、及びプログラム
US7117453B2 (en) * 2003-01-21 2006-10-03 Microsoft Corporation Media frame object visualization system
JP4280656B2 (ja) * 2003-06-20 2009-06-17 キヤノン株式会社 画像表示装置およびその画像表示方法
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
US7639839B2 (en) * 2004-03-31 2009-12-29 Fuji Xerox Co., Ltd. Extracting video regions of interest
US7886024B2 (en) * 2004-07-01 2011-02-08 Microsoft Corporation Sharing media objects in a network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100708476B1 (ko) * 2005-10-20 2007-04-18 삼성전자주식회사 메모리카드의 성능을 고려한 영상화질 결정방법 및 이를적용한 촬영장치

Also Published As

Publication number Publication date
JP4280656B2 (ja) 2009-06-17
US20090142005A1 (en) 2009-06-04
KR100637741B1 (ko) 2006-10-25
US20090189914A1 (en) 2009-07-30
US8023032B2 (en) 2011-09-20
CN1573755A (zh) 2005-02-02
US20050001933A1 (en) 2005-01-06
US8462178B2 (en) 2013-06-11
CN1312618C (zh) 2007-04-25
US7600191B2 (en) 2009-10-06
JP2005032219A (ja) 2005-02-03

Similar Documents

Publication Publication Date Title
KR100637741B1 (ko) 화상표시방법, 프로그램 및 화상표시장치
KR100714888B1 (ko) 화상표시방법 및 화상표시장치
KR100596910B1 (ko) 화상표시제어방법 및 화상표시제어장치
KR100691531B1 (ko) 화상표시방법 및 화상표시장치
JP5056061B2 (ja) 撮像装置
JP4640456B2 (ja) 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム
US20080239139A1 (en) Mobile communication terminal and method for displaying image using focus information thereof
JPH10243273A (ja) デジタルカメラ用画像表示方法
US20160127645A1 (en) Image capturing apparatus and control method thereof
US20140210941A1 (en) Image capture apparatus, image capture method, and image capture program
JP2014050022A (ja) 画像処理装置、撮像装置、およびプログラム
JP4724757B2 (ja) 画像表示方法および画像処理装置
JP2009080815A (ja) 画像表示方法および画像表示装置
JP4968621B2 (ja) 画像再生システム
JP2005157027A (ja) 画像表示方法
JP2017121001A (ja) 画像処理装置、画像処理方法及びプログラム
KR20110034292A (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터로 읽을 수 있는 저장매체
JP2011061857A (ja) 画像処理装置、画像処理方法、プログラム、撮像装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120924

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130926

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140924

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150923

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160926

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170925

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee