JP2005032219A - 画像表示装置およびその画像表示方法 - Google Patents

画像表示装置およびその画像表示方法 Download PDF

Info

Publication number
JP2005032219A
JP2005032219A JP2004048430A JP2004048430A JP2005032219A JP 2005032219 A JP2005032219 A JP 2005032219A JP 2004048430 A JP2004048430 A JP 2004048430A JP 2004048430 A JP2004048430 A JP 2004048430A JP 2005032219 A JP2005032219 A JP 2005032219A
Authority
JP
Japan
Prior art keywords
image
images
image display
exposure
display method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004048430A
Other languages
English (en)
Other versions
JP4280656B2 (ja
Inventor
Tomoyasu Yoshikawa
智康 吉川
Shuntaro Araya
俊太郎 荒谷
Katsuhiro Miyamoto
勝弘 宮本
Tomoyuki Ono
智之 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004048430A priority Critical patent/JP4280656B2/ja
Priority to KR1020040045318A priority patent/KR100637741B1/ko
Priority to CNB2004100597678A priority patent/CN1312618C/zh
Priority to US10/869,919 priority patent/US7600191B2/en
Publication of JP2005032219A publication Critical patent/JP2005032219A/ja
Priority to US12/360,298 priority patent/US8023032B2/en
Priority to US12/360,308 priority patent/US8462178B2/en
Application granted granted Critical
Publication of JP4280656B2 publication Critical patent/JP4280656B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4221Dedicated function buttons, e.g. for the control of an EPG, subtitles, aspect ratio, picture-in-picture or teletext
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/418External card to be used in combination with the client device, e.g. for conditional access
    • H04N21/4184External card to be used in combination with the client device, e.g. for conditional access providing storage capabilities, e.g. memory stick
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Abstract

【課題】大量の画像を画面上に効率よく配置した状態においても、ユーザが容易に希望の画像を見つけることができる画像表示方法を提供する。
【解決手段】 画面上の各表示位置に対応して設けられたテーブルには、インデックスが付与され、当該表示位置における非露出部分を示すデータが保持されている。画像データのExifヘッダ情報から焦点位置情報を取得し、インデックスの順に、画像データが未登録のテーブルを検索する。未登録であれば、当該テーブルに保持された非露出部分と画像の焦点位置とを比較し、異なる場合には、当該テーブルに当該画像データを登録し、同じである場合には、次のインデックスのテーブルについて同様の処理を行う。テーブルに従い、各画像の焦点位置と、各表示位置の非露出部分とが異なる位置となるように画像を配置、表示する。
【選択図】 図3

Description

本発明はデジタル画像データをテレビ画面上で再生する為の画像表示方法に関するものである。
デジタルハイビジョン放送が開始され、ハイビジョン対応のテレビ受信機の普及により、従来よりも高画質で迫力のある映像を家庭で楽しめるようになってきている。また、電子スチルカメラの普及により、電子化した静止画および動画をパソコンだけでなく、テレビのモニター画面に表示して楽しむユーザも増えてきている。
テレビ受信機にて静止画や動画を見る場合には、ユーザはモニター画面に表示されたサムネイル画像の一覧を見て、そのサムネイル画像を選択することで、再生データを選択するのが一般的である。
一方、近年記憶容量を飛躍的に増大させたメモリの利用が可能になっており、これに伴い記憶できる画像の数も飛躍的に増大している。例えば、メモリカードは500枚を超えるデジタル写真の記憶をすることができるようになってきている。
このような大量の画像データの中から、ユーザが所望の画像データを探し出すことは容易なことではなくなってきている。
大量のデータオブジェクトを効率よく画面に配置し、ユーザ自身の目で容易に選択できるようにする技術としては、例えば、特許文献1に、サムネイル画像を重ねるように表示させながら移動させ、所望のデータを容易に見つけられるようにする技術が開示されている。また、特許文献2には、画像を3D空間の中にデータを表示させ、仮想的な視点を移動することで所望のデータを見つけられるようにする技術が開示されている。
特開2001−306375号公報 特開平9−259130号公報
しかしながら、従来の技術では、サムネイル画像同士が重なり合って表示され、写真を判別する為に重要な部分が隠れてしまう場合があった。例えば図14に示すような写真Aと写真Bがあった場合、写真Aは画像の左部分にある「かけっこ」をしている子供達が重要な部分であり、また写真Bは画像の右側にある人物が重要である。これらの写真を他の写真とともに重ねるように表示すると同図(a)のように、重要な部分が隠れたまま表示されてしまうことがあった。
そのため、上記特許文献1及び特許文献2に開示された提案では、ユーザが表示画像をスクロールしたり、仮想的な視点の位置を動かすなどの操作を行って、その写真の重要な部分がみられるようにしてから、写真を判別するしかなかった。
本発明は上記問題に鑑みてなされるものであり、大量の画像を画面上に効率よく配置した状態において、ユーザが容易に希望の画像を見つけることができる画像表示方法を提供することを目的としている。
また、撮影されたほとんどのデジタル画像は、撮影者が被写対象とした領域とそれ以外
の領域とに分割できる。ここで、前者の領域を注目領域、後者の領域を非注目領域と呼ぶことにする。
画像表示装置の操作者が、大量のデジタル画像から所望する画像を検索する状況を考えると、個々のデジタル画像内の注目領域を判断していると考えられる。
従来、サムネイル画像を作成する際には、注目領域・非注目領域の区別無く一律で画像データを縮小する。このため、サムネイル画像一覧表示で複数画像を表示した場合、注目領域が小さく表示されることになる。従って、この方法で大量のデジタル画像の中から俯瞰により、注目領域を判断基準として所望の画像を見つけ出すことは難しい。
そこで特許文献3では、画像の顔領域を検出し、検出された顔領域を拡大してサムネイル画像一覧表示する手法が提案されている。この構成により注目領域として顔領域を検知し、その部分を拡大表示することによってデジタル画像の検索性を高めたシステムが可能となる。
特開2002−358522号公報
しかし、この方法では注目領域を拡大した、サムネイル画像一覧表示のため、一画面上で表示可能な画像枚数は予め固定されている。このため表示可能な画像枚数を超える画像を表示させる場合、スクロール機能やページめくり機能などが別途必要となり、ユーザの操作が煩わしくなる。
また拡大した注目領域と元画像の両方をサムネイル画像表示した場合、さらに一画面上で表示可能な画像枚数は少なくなってしまう。
さらに、対象画像から顔領域が検知できなかった場合には、対処できない等の問題点があった。
以上の問題を解決する為に、本発明においては、多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示する工程を含む画像表示方法であって、前記少なくとも二つの画像の各々の画像に関連付けられた関連情報を取得する工程と、前記取得された関連情報に基づいて、前記少なくとも二つの画像の重なりの前後関係を決定する工程と、を含むことを特徴としている。
また、本発明においては、多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示する工程を含む画像表示方法であって、前記少なくとも二つの画像の各々の画像に関連付けられた関連情報を取得する工程と、前記取得された関連情報に基づいて、前記少なくとも二つの画像のうち、一方の画像の重ね合わせによって隠される部分と露出する部分を有する他方の画像の露出量及び/又は露出位置を決定する工程と、を含むことを特徴としている。
また、本発明においては、多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示する工程を含む画像表示方法であって、前記少なくとも二つの画像の各々の画像の顔領域を検知する顔検知工程と、顔領域の大きさに基づいて、前記少なくとも二つの画像の重なりの前後関係を決定する工程と、を含むことを特徴としている。
また、本発明においては、多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示 する工程を含む画像表示方法であって、前記少なくとも二つの
画像の各々の画像の顔領域を検知する顔検知工程と、顔領域の位置に基づいて、前記少な
くとも二つの画像のうち、一方の画像の重ね合わせによって隠される部分と露出する部分を有する他方の画像の露出量及び/又は露出位置を決定する工程と、を含むことを特徴としている。
本発明の画像表示装置およびその画像表示方法により、複数の画像を重ねて一覧表示した場合に、注目領域と考えられる部分を検知することで、この注目領域を重ならないように制御する。これにより、各画像の注目領域が必ず露出することにより、ユーザによる画像検索性と画像の大量表示の両立ができる構成となる。
また、複数の画像を重ねて一覧表示した場合に、画像の注目領域の大きさ順に上から重ねる制御を行う。これにより、注目領域の露出比率の高い一覧表示が、ユーザがデジタルカメラで撮影した大量のデジタル画像を画面上に重ねて表示することで効率よく配置することができる。さらに効率よく配置した状態においても、個々の画像に固有の情報を元に、ユーザが写真を判別する為に重要な部分が重ならないで表示されるようにすることが可能となる。
つまり本発明によればユーザが容易に所望の写真を見つけることができる。
また、複数の画像を重ねて一覧表示した場合でも、注目領域と考えられる部分を検知することで、この注目領域を重ならないように制御する。これにより、各画像の注目領域が必ず露出することにより、ユーザによる画像検索性と画像の大量表示の両立ができる構成となる。
さらに、複数の画像を重ねて一覧表示した場合に、画像の注目領域の大きさ順に上から重ねる制御を行う。これにより、注目領域の露出比率の高い一覧表示ができる。
以下図面を参照しながら本発明の実施形態を説明する。
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。図1は本発明が適用される画像表示装置としてのデジタルテレビ受信装置100の構成を示した図である。
図1において、不図示のアンテナにより受信された信号はチューナ部101に入力される。チューナ部101は、入力された信号に対して、復調、誤り訂正等の処理を施し、トランスポートストリーム(TS)と呼ばれる形式のデジタルデータを生成する。チューナ部は更に、生成したTSデータに対しデスクランブル解除処理を行い、デマルチプレクサ102に出力する。
デマルチプレクサ部102は、チューナ部101より入力された複数チャンネル分の映像、音声データ、および電子番組ガイド(EPG)データ、データ放送データ等が時分割多重化されているTSデータの中から、映像データおよび音声データを取り出し、映像・音声デコーダ103に出力する。映像・音声デコーダで処理された映像データはビデオメモリ107に書き込まれ、表示合成部108を介して、表示器へと出力される。一方音声データは音声出力部104にて出力される。
109はカードスロットであり、リムーバブルメモリカード等を接続し、本実施形態においてはデジタルカメラとのデータのやり取りを行うために使用される。105は画像データ入力部であり、カードスロット109に接続されたメモリカードからデジタル画像デ
ータを読み込む。106は画像処理部であり、画像データ入力部より入力したデジタル画像データに対して画像処理を施し、ビデオメモリ107へと書き込む。
110は表示制御部であり、画像データ入力部105に対する画像読込の指示、画像処理部106に対する処理実行の指示、ビデオメモリ107への表示データの書き込み、表示合成部108に対する合成処理の指示、記憶部113に対する情報の記憶指示を行う。また、表示制御部110はユーザ入力部111を介してリモコン114からの入力データの取得、また画像データ入力部105を介して、デジタル画像データに付与された撮影データの取得も行なう。本実施形態では、表示制御部110が、重なり決定部及び露出決定部に相当する。
リモコン114の例を図2に示す。ただし本図は本実施形態を説明する為に必要な機能を実現するための操作を行うボタンのみを表すものであり、実際の受信装置に必要なボタンはこの限りでない。
図2において、201はリモコンと図1のユーザ入力部受光部111との赤外線通信を行うための発光部、202は電源をON/OFFする為の電源キー、203は上下左右ボタンの真中に決定キーを配したカーソル&決定キー、204、205はUp/Down2つのキーからなるアップダウンキー、206は1〜9、0の数字がマトリクス上に並んだ数字キー、207は青、赤、緑、黄の4色のボタンが横一列に並んでいるカラーキーである。
また、208はテレビ受信機のモニターの表示モードを切替えるモニターモードキー、209は画像ビューア機能を呼出す為の「ビューワ」キーである。
本実施形態において用いたデジタル画像はデジタルカメラにて撮影された静止画および動画データであり、静止画データはデジタルカメラにてJPEG圧縮処理を施された後、静止画像データファイルとしてメモリカードに記録されたものを用いている。また、動画データも同様にデジタルカメラにてフレーム単位でJPEG圧縮処理された画像群を動画像データファイルとしてメモリカードに記録されたものを用いている。以後の説明で「画像ファイル」は静止画像データもしくは動画像データの事を示すとする。
それぞれの画像ファイルには、画像に関連付けられた関連情報として、デジタルカメラによる撮影時の情報が付与されている。撮影時の情報とは、撮影日時やカメラ機種名のほかに、撮影シーンモード、撮影時におけるファインダー内の焦点位置を示す焦点位置情報、ストロボ発光状態情報、被写体との距離を示す情報、ズーム状態情報などがある。
本実施形態で使用したデジタルカメラでは撮影時の撮影時におけるファインダー内の焦点位置情報として、「左」「中」「右」のうち何れかが記録されるものを用いている。
図15は本実施形態で使用したデジタルカメラの液晶画面に表示される画面例を示したものであり、図中(a)はシャッターボタンに手を触れる前の状態、図中(b)はシャッターボタンを軽く押した後、左側の矩形領域に焦点が合った状態を示している。
(処理動作)
本実施形態によるデジタルテレビ受信装置100におけるデジタル画像の一覧表示は、ユーザがカードスロット109にメモリカードを装着し、リモコン操作によって、画像ビューア機能を呼びだすことによって開始される。
図3はデジタルテレビ受信装置における画像ビューア機能の一部の動作について表示制
御部110の動作を中心に示した図である。また、図5は表示制御部110が画像データの一覧表示のレイアウト制御を行う際に使用するテーブルデータである。また図4は、図5の各インデクスに対応つけられた画像表示位置を示した例である。以下これらの図を使って表示制御部110の動作処理の説明を行う。
ユーザが図2に示すリモコンの「ビューワ」キーを押下すると、表示制御部110は図3に示す処理を開始する。
まず表示制御部110は画像データ入力部105を介してメモリスロット109に挿入されているメモリカードにある画像ファイルの総数を読出し記憶する(S301)。そして次に1枚目の画像ファイルのExifヘッダ情報を読出しを行う(S302,S303)。
そして図5に示すテーブルの1番目の内容を読み出し(S304)、画像データが未登録であれば(S305)、先に読み出したExifヘッダ情報の中の焦点位置情報と、テーブルの「非露出部分」と比較し(S307)、同じであれば(S308)次のテーブルの内容を読み出す(S306,S304)。そして画像データが未登録であれば(S305)、Exifヘッダの情報に含まれる焦点位置情報と、テーブルの「非露出部分」とを比較する。ここで、同じでない場合には、この位置のテーブルに現在処理中の画像ファイルを登録する(S309)。
図5では「左」という焦点位置情報をもったIMG001.JPGという画像が、1番目のインデクスの所では非露出部分も「左」であるため登録されず、2番目のインデクスの所で非露出部分と異なっている為、テーブルに登録された状態を示している。
このように表示制御部110はテーブルのインデクスの小さいほうから空いている場所を探していき、空いているところを見つけたら、インデクスに対応つけられた非露出部分と、画像ファイルの焦点位置情報とを比較し、同じであったら、次のテーブルに関して同様の処理を行う。
同様に2番目、3番目・・・とメモリカードの処理を続け、M(=画像総数)番目の画像データの処理が終れば、テーブルに登録した内容に従って各画像の表示処理を行う。表示制御部110は画像入力部105を介してメモリカードからこの画像のデータを読出し(S314)、画像処理部106へと送りデコード処理を行った後(S318)、ビデオメモリ107に対して表示データを書き込むことで画像の表示を行う(S319)。
尚、特に図示しないが、図3の処理により、全ての画像の表示が行われると、ユーザはリモコンの上下左右キーを操作してカーソルを動かし、見たい画像を選択する。そして見たい画像のところで決定キーを押すと、その画像だけを画面に表示することができる。
(作用・効果)
以上説明した表示制御部110の処理により、得られる作用について説明する。図6(a)は「左」という焦点位置情報もった画像ファイルIMG001.jpgが前述の処理によって図6の「1」(図4,5,6,10,11,13における丸囲み数字を本文では、かぎかっこで囲んで表記する。)の場所ではなく、「2」の位置に配置された様子を示している。これにより、この画像の左側の被写体部分が露出されるようになり、例えば同図(b)に示したように「1」の位置に配置された場合に比べ、容易にこの写真を見つけることが出来るようになる。
つまり本発明の第1の実施形態によれば、写真固有の情報を基にその写真を判別するのに適した部分を露出させることが出来るようになる。
また、上記説明においては撮影時に記録された焦点位置情報という情報を用いる例を紹介したが、それ以外にも例えばデジタルカメラが撮影シーンモードとして被写体位置あるいは焦点位置が固定されたモードを設定可能な場合には、この撮影シーンモードの情報を用いてもよい。例えば図16のように「人物右」「人物左」といった撮影シーンモードを持ったデジタルカメラで撮影し、画像のExifヘッダ情報に「人物右」という情報があった場合、画像の右側部分を露出するように一覧表示位置を制御することで、上記説明と同様の作用が得られる。
なお、上記説明において、説明を簡便にするため画面上に12枚の写真しか表示しない例を示したが、さらに大量の枚数を表示する場合であっても構わない。
(第2の実施形態)
次に本発明の他の実施形態について説明する。本実施形態で用いたデジタルテレビ受信装置の構成は図1と同じであるので説明は省略する。
本実施形態においても先の実施形態で用いたものと同様のデジタルカメラで撮影されたデジタル画像を用いるが、本実施形態で使用したデジタルカメラでは、特に撮影日時の情報、撮影時のカメラの向きを示す情報(つまり横長写真/縦長写真を示す)と、撮影時の撮影シーンモードとして「オートモード」「風景モード」「人物モード(ポートレートモード)」「ナイト(夜間撮影)モード」といったモード設定が記録されるものを用いている。ここでは、撮影シーンモードに関する設定情報が、撮影モードに関する情報に相当する。
(処理動作)
本実施形態のデジタルテレビ受信装置100におけるデジタル画像の一覧表示は、ユーザがカードスロット109にメモリカードを装着し、リモコン操作によって、画像ビューア機能を呼びだすことによって開始される。
図7はデジタルテレビ受信装置における画像ビューア機能の一部の動作について表示制御部110の動作を中心に示した図である。また図8は図7の処理で使用される露出制御マスクの種類を示したものである。露出制御マスクは、焦点位置や撮影シーンモードに応じて露出量及び/露出位置が異なるものが用意されている。以下これらの図を使って説明する。
先ず表示制御部110はメモリカードに記録されている画像データの総数を取得し(S701)、1番目の画像データのExifヘッダ情報を読み込む(S702)。
この画像データのExifヘッダ情報に焦点位置情報が入っている場合(S704)、図8(a)に示した左露出用マスク、中央露出用マスク、右露出用マスクの3つの露出制御マスクのうち、焦点位置情報に対応した焦点位置の露出制御マスクを決定する(S705)。一方、画像データに焦点位置情報が無い場合において(S706)、撮影シーンモード情報がある場合には、図8の(b)に示した露出制御マスクのうち、撮影シーンモード情報に対応した露出制御マスクを決定する。(S707)、また、Exifヘッダ情報に焦点位置情報も、撮影シーンモード情報も含まない場合には標準露出マスクに決定する(S708)。
そして、以降の画像データに対しても同様の処理を行って、露出制御マスクを決定していく(S709,S710,S703〜)。
図9は表示制御部110が行う表示処理の内容を示した図である。また図10は本実施
形態で用いた画像データと、表示制御部110による図9の表示制御による画面上での様子を示した図である。図中(a)は本実施形態で用いた画像データを表した図である。使用した画像「1」〜「10」は焦点位置情報が左、中、右の3種類のものが順番に並んでいるものとしている。
以下これらの図を用いて説明する。
先ず表示制御部110はメモリカードから1枚目の画像データのサムネイル画像を読み出し(S901〜S902)、画像のデコード処理を行い(S903)、図7の処理にて決定された露出制御マスクを使ってマスク処理を行う(S904)。このマスク処理としては各画素のデータに対して露出部分か否かを示すフラグデータを埋め込む処理を行う。
本実施形態においては、各画素の青成分(0〜255の値)の下位1ビットを使用してフラグデータとしている。つまり、画像の中で青の下位1ビットが0の画素は非露出部分、1のところは露出部分を意味するものとする。
次に表示制御部110は処理中の画像を画面上の予め定めた基準位置に配置する(S905)。本実施形態では基準位置を画面上で一覧表示しようとしている領域の左端と定めている。このとき配置しようとしている領域の下に露出部分を示すフラグデータを含んだ画素が無いかどうかを調べる(S906)。1枚目の画像データの場合には他の画像はないので、そのまま基準位置に配置される。
同様に2枚目の画像データを処理していく過程で、配置した画像の下に露出部分を示すフラグデータがある、つまり他画像の露出部分の上に重なってしまっている場合には(S907、S908)、配置した画像の位置を右方向に一定画素分動かして再配置する(S909)。
図中(b)は2枚目までの表示処理が終った状態を表した図であり、2枚目の配置処理において、当初基準位置に配置されたものの、1枚目の画像の露出部分に重なってしまっている為、2枚目の画像は右方向に動かされ、1枚目の露出部分との重なりが無くなったところで配置処理が終った状態を示している。
次に3枚目の画像データを処理していく過程においても、基準位置に配置された時点では1枚目の画像の露出部分と重なっているので、再配置のために画像を移動する。但し図中(a)からわかるようにこの例では3枚目の画像は焦点位置情報が右側となっていた写真であり、右露出用マスクが用いられることが図7の処理で決定している画像である。表示制御部ではこの場合基準位置から左方向へ画像を動かし(S910)、他の画像の露出部分との重なりがなくなるところまで動かして再配置する。またこのとき表示制御部は配置済の画像群(ここでは1枚目と2枚目)を右にスライドさせ、3枚目の画像が図中点線で囲った一覧表示領域からはみ出さないようにする。また基準位置も同じ量だけ右に移動する(S913)。図10(c)はこのときの状態を表した図である。
4枚目以降の画像データについても同様の処理を行っていき、図10の(d)〜(f)のように配置処理が進んでいく。
(作用・効果)
次に本実施形態における表示制御部110の処理による作用について説明するが、その前に図11を使って本発明を使わない場合の表示例を説明する。図11(a)は本発明を用いずに単純に画像を重ねて表示していく場合の表示例である。このとき全ての画像が図中(b)のように中央部分に焦点位置がある場合には、図中(c)のようにおおよそその
部分が露出されることになる。しかしながら、図中(d)のように焦点位置が中央でない画像が混在している画像群を一覧表示した場合には、図中(e)に示したように、一部の画像で露出部分がかなり隠れてしまうことになってしまう。
一般にユーザが本実施形態で用いたような複数の焦点位置を持つデジタルカメラにて撮影する際、ユーザ自身が重要と考えている部分に焦点が合っていることを確認しながら撮影するのが普通である。つまり焦点位置の近くの領域が隠れて表示されてしまうということは、多くの場合においてユーザが重要と感じた被写体、つまり写真を判別する為に重要な部分を隠しているといえる。
一方、上述してきた本実施形態における表示制御部110の処理を行った場合には、図中(f)のようにいずれの画像においても焦点位置近くの領域が隠れることなく表示できる。
また、図11では詳述しないが、図7および図8を用いてに示した露出制御マスクの決定処理において、「風景」「人物」といった撮影シーンモードによって露出制御マスクを切り替えることにより、焦点位置情報が無い場合でも、その写真の撮影シーンに合わせて露出部分や露出量を制御できることが出来るようになる。例えば風景写真の場合には風景全体がユーザにとっての「印象」として残っている場合が多く、画像を判別し選択するためには露出部分を多くする必要がある。一方、人物写真の場合には顔が判別できるように露出するだけでよく、露出部分はあまり多くなくてもよいという傾向がある。
このような、撮影シーンモードを反映した制御をすることで、判別しやすさを維持しながら画像の特性に合わせた効率的な画像配置を行うことが出来るようになる。
尚、上記説明では、一覧表示の方法として、画像を重ねながら横一列に並べていく場合だけを説明したが、本発明の主旨からすれば、画像の重ね合わせ方はこれに限られないことは当然であり、縦に重ねる場合、横にも縦にも重ねる場合であっても同様である。
また、上記説明では露出制御マスクを使ったマスク処理の説明において、青成分データの下位1ビットをフラグとして用いるとしたが、本発明の主旨からすればこれに限られるものではなく、画素ごとに専用のフラグビットを設けてもよいし、アルファブレンド量を示すデータのビットを用いても良い。
また、上記説明において、撮影シーンモードとして「風景」「人物」の2種類のみを例としてあげたが、これに限られないことは当然であり、「夜景」「マクロ」などといった撮影シーンであってもよい。
(第3の実施形態)
上記第2の実施形態においては、焦点位置情報、撮影シーンモード情報といったExifヘッダ情報からより効率的、かつ判別しやすい画像配置を行ったが、本発明の本質からすれば勿論これに限定することは無く、例えば撮影日時情報から効率的な画像配置を行うことが出来る。
本実施形態で用いるデジタルテレビ受信装置の構成は図1と同じであるので説明は省略する。
(処理動作)
図13(a)は本実施形態で用いる画像データを示した図である。画像は時系列に並んでおり、画像下には撮影時間が示されている。
先ず表示制御部110はメモリカードから1番目の画像データのExifヘッダ情報を読み出し(S1201〜S1202)、さらに1番目の画像データのサムネイル画像を読み出す(S1203)。読み出された画像データを画像処理部106へ送り、デコード処理を行う(S1204)。
次に、(N−1)番目の画像の撮影時間を読出し(S1205)。ここで、N番目の画像の撮影時間と(N−1)番目の画像の撮影時間との差が10秒以内であれば(図13では「5」、「6」)、N番目と(N−1)番目の画像との重なり量を多くなるように制御する(S1206〜S1207)。一方、N番目の画像の撮影時間と(N−1)番目の画像の撮影時間との差が10秒を超える場合には、N番目と(N−1)番目の画像との重なり量を所定の通常量となるように制御する(S1206,S1208)。
同様に(N+1)番目以降の画像データについても同様の処理を行い、メモリカードに記録された全ての画像データに対して同様の処理を行ったところで処理を終了する(S1209〜S1210)。
このような制御により、図13の(c)に示すような配置で一覧表示される。
(作用・効果)
上記処理により、全ての画像を同じ重ね量で重ねていった場合(図13の(b))に比べ、より多くの画像を配置することが可能となる。この処理により撮影時間が10秒以下と少ない画像群の場合、1枚だけは露出が多いが(図13の(c)における「6」)、残りの(「4」と「5」の)画像は少ない露出になる。露出部分が減ってしまう為、写真の判別の為には望ましくないように思えるが、一般にこのように撮影時間が非常に近い画像の場合、ユーザは露出の多い画像(「6」)の内容から、露出の少ない画像(「4」、「5」)の内容を推測できるため、特に画像の選択のために障害にはならないことがわかっている。
つまり、本実施形態の表示制御部110の処理によれば、画像の撮影時間の差に応じて、効率的な一覧表示を行うことが可能となる。
(第4の実施形態)
図17は、本発明の実施形態に係る画像表示装置の構成を示したブロック図である。
ここで1101は画像表示装置全体を示している。1201は制御CPUであり、画像表
示装置1101の全体の制御を行っている。1203は画像表示部で、液晶やプラズマディスプレイ等の薄型画面を実現できるデバイスにより構成されている。画像表示部1203は、制御CPU1201に指示された画像を表示する。本実施形態では、制御CPU1201が重なり決定部及び露出決定部に相当し、画像表示部1203が表示器に相当する。
また、画像表示装置1101は、本発明の特徴である複数画像データの重ね一覧表示を表示する装置でもある。
1205は画像蓄積部で、ハードディスクなどの不揮発性記憶装置からなっている。ユーザの操作により、デジタルカメラやデジタルビデオカメラなどで撮影され、画像表示装置に取り込まれた画像を大量に蓄積保存することができる。
1207はメモリカードである。メモリカード1207は着脱可能な構成である。またメモリカード1207はデジタルカメラやデジタルビデオカメラ等の画像撮影機器とも接
続が可能であり、メモリカード1207を経由し、撮影された画像データを画像表示装置1101内に取り込むことができる。
1209は外部入力端子である。この端子を経由し、直接デジタルカメラやデジタルビデオカメラ等の画像撮影機器の画像データを画像表示装置1101内に取り込むことができる。
1211は画像デコーダ部である。画像蓄積部1205やメモリカード1207、外部入力端子1209から取り込まれた画像データはここで制御CPU1201等の画像表示装
置1101内部で扱えるデータフォーマットに変換される。
1213は顔検知処理部である。取り込まれた画像データ内に人物像があるか否かを判断し、人物像がある場合には、その領域を特定する処理を行う。処理の詳細については、後述する。
1215はキャッシュメモリである。画像デコーダ1211でデコードされた画像データの一時保持や、画像表示部1203に表示されている画像データの保持、顔検知処理部1213の一時データ保持などに使用される。
図18は、注目領域検出の一手法として使用されている顔検知処理の処理フローを示したフローチャートである。
本処理は、重ね一覧表示の実行に先立ち、表示対象となる画像データより、顔検知処理部1213で実行される。処理開始後、ステップ1101へ進む。
ステップ1101では、画像データ内色データの中から肌色データが含まれる領域を探し出す処理を実行する。処理後、ステップ1103へ進む。
ステップ1103では、顔の特徴を示すパターン目や口の形状の画像パターンと対象画像とのパターンマッチング処理を実行する。処理後、ステップ1105へ進む。
ステップ1105では、ステップ1101およびステップ1103の処理結果にもとづき、対象画像内に顔領域が存在したか否かで処理を分岐している。すなわちもし顔領域が存在したら処理をステップ1107へ進める。またもし顔領域が存在しなければ本処理は終了となる。
ステップ1107では、ステップ1101およびステップ1103の処理結果より顔領域と判断したエリアの情報をキャッシュメモリ215へ書き出し、制御CPU1201へ処
理を戻すことで本処理は終了となる。
図19(a)は、画像データの一例を示した図である。また図19(b)は、顔検知処理後の顔領域の判定結果による注目領域の範囲決定処理の一例を示した図である。
図19(a)に示したような、人物像が写った画像データを、顔検知処理部1213により図18で説明した処理の流れで、顔検知処理を実行する。図19(b)で示したように、顔領域として判断したエリアは1303と1305の部分である。図のように顔領域は円図形データとして認識される。
顔検知処理で検知された顔領域を注目領域と判断し、重ね一覧表示の制御に適用している。
顔検知処理は、被写体としての顔が画像データ全てに占める割合が大きい場合は検知率が良い。しかし、その割合が低い場合、顔を検知することができない場合がある。この場合の処理について、図20(a)と図20(b)を用いて説明する。
図20(a)は、画像データの一例を示した図である。また図20(b)は、撮影情報による注目領域の範囲決定処理の一例を示した図である。
デジタルカメラ等で撮影された画像データには、撮影時の情報を画像データ内に保持することができる(Exif情報)。このExif情報には撮影時の位置情報が含まれている。そこで本発明では、顔検知処理が失敗した場合、Exif情報の焦点位置情報を読み取る。図20(a)で1403と1405で示した範囲である。
この焦点位置情報から位置情報を含んだ円図形で示される範囲を注目領域と認識している。図20(b)の1407で示した範囲である。
対象画像から顔領域が検知できなかった場合、このExif情報の焦点位置情報から注目領域を判断している。
図21は、注目領域決定処理の処理フローを示したフローチャートである。
本処理は、重ね一覧表示の制御の前処理段階で実行する。処理開始後、ステップ1201へ進む。
ステップ1201では、画像蓄積部1205、メモリカード1207、外部入力端子1209から画像データを読み込み、画像デコーダ211でデコードした後、キャッシュメモ215へ画像データを格納している。処理後、ステップ1203へ進む。
ステップ1203では、読み取った画像を対象として、顔検知処理部1203により図18で説明した顔検知処理を呼び出している。処理後、ステップ1205へ進む。
ステップ1205では、顔検知処理結果により顔領域が有ったか否かで処理を分岐している。すなわちもし顔領域が有った場合、処理をステップ1207へ進める。またもし顔領域が無かった場合には、処理をステップ1209へ進める。
ステップ1207では、対象画像内に顔領域が有ったと判断されたので、キャッシュメモリ内にある顔領域データを対象画像の注目領域データとして登録する処理を行う。当該登録処理後、本処理は終了となる。
ステップ1209では、対象画像にExif情報があるか否かで処理を分岐している。すなわちもしExif情報がある場合には、処理をステップ1211へ進める。またもし無ければ、処理をステップ1215へ進める。
ステップ1211では、Exif情報を対象画像データより読み込み、さらに焦点位置情報を読み出す処理を行う。処理後、ステップ1213へ進む。
ステップ1213では、図20(a)と図20(b)で説明した焦点位置情報から注目領域に変換する処理を実行する。この領域を注目領域として登録する。当該登録処理後、本処理は終了となる。
ステップ1215では、対象画像から、顔領域が存在せず、Exif情報の取得もできなかったことから、画像の中心位置を注目領域として登録する処理を行う。当該登録処理後、本処理は終了となる。
ここで説明した処理は、重ね一覧表示の表示対象となる全ての画像データに対して実行される。
図22(a)は、無作為に画像を重ね表示した場合の一例を示した図である。また図22(b)は、注目領域の大きさを考慮した画像を重ね表示した場合の一例を示した図である。
本発明の複数画像の重ね一覧表示は、各画像1501、1503、1505のそれぞれの注目領域部分1701、1703,1705の領域を保護領域として必ず画面上に表示する。これによりユーザの検索性を高めている。また他の領域は、非注目領域として他の画像の下に配置することで、効率よく画像を表示することができる。
図22(a)で示したように無作為に画像を重ね表示した場合に比べ、図22(b)のように注目領域の大きいものを上にするように重ねて表示した方が、画面を有効に使用できる。この処理を取り入れることで、さらに効率よく画像を表示することができる。
図23は、重ね表示処理の処理フローを示したフローチャートである。
本処理は、ユーザにより重ね一覧表示が選択された場合に実行される。処理開始後、ステップ1301へ進む。
ステップ1301では、図21で説明した注目領域決定処理を実行する処理を呼び出している。表示対象となる画像のすべてについて、この処理を実行する。処理後、ステップ1303へ進む。
ステップ1303では、ステップ1301の注目領域決定処理をうけ、各画像の注目領域の大きい順番に並べ替える処理を実行している。処理後、ステップ1305へ進む。
ステップ1305では、画像を示す変数Nに先頭画像を示す1を設定している。またNの数字が大きくなるにつれ、下の方に重ねられて表示することを示している。処理後、ステップ1307へ進む。
ステップ1307では、変数Nで示された画像の位置を決定する処理が行われる。配置
位置の決定方法は乱数により座標値を求める方式となっている。ここで,配置位置の決定として,座標値は注目領域が最大限露出し,かつ非注目領域が最大限上位画像に隠れる位置が選択される。処理後、ステップ1309へ進む。
ステップ1309では、配置された画像が規制角度範囲に収まっているか否かを判断している。これは余りに画像表示角度が大きいと、ユーザから見づらい印象を与えるためである。規定範囲外と判断された場合は処理を、ステップ1307に戻す。また規定範囲内であった場合は、処理をステップ1311へ進める。
ステップ1311では、配置対象画像の注目領域に上位画像が重なっているか否かを判断している。もし重なっている判断された場合には、処理をステップ1307に戻す。またもし重なっていないと判断した場合には処理をステップ1313へ進める。
ステップ1313では、変数Nに格納された値が、表示対象の最終画像を示しているか
否かで処理を分岐させている。すなわち最終画像の場合には、処理をステップ1317に進める。また最終画像でない場合には、処理をステップ1315へ進める。
ステップ1315では、変数Nの値をインクリメントし、次の画像の配置位置を決定す
る処理が繰り返される。
ステップ1317では、表示対象となる全ての画像の配置位置が決定したことにより、画像表示部1201に重ね一覧表示を実行する処理を呼び出している。表示終了後、本処理は終了となる。
図24は、重ね一覧表示の一実施例を示した図である。画像表示部1201上に各画像の注目領域が必ず表示しているのが分かる。
(第5の実施形態)
本実施形態に係る画像表示装置の基本構成は、第4の実施形態と同じである。ただし、図21で説明した注目領域検知について、顔検知処理より焦点位置情報を優先した構成である。
図25は、本実施形態の注目領域決定処理の処理フローを示したフローチャートである。
本処理は、重ね一覧表示の制御の前処理段階で実行する。処理開始後、ステップ1401へ進む。
ステップ1401では、画像蓄積部1205、メモリカード1207、外部入力端子1209から画像データを読み込み、画像デコーダ211でデコードした後、キャッシュメモ215へ画像データを格納している。処理後、ステップ1403へ進む。
ステップ1403では、対象画像にExif情報があるか否かで処理を分岐している。すなわちもしExif情報がある場合には、処理をステップ1407へ進める。またもし無ければ、処理をステップ1405へ進める。
ステップ1405では、読み取った画像を対象として、顔検知処理部1203により図18で説明した顔検知処理を呼び出している。処理後、ステップ1411へ進む。
ステップ1407では、Exif情報を対象画像データより読み込み、さらに焦点位置情報を読み出す処理を行う。処理後、ステップ1409へ進む。
ステップ1409では、図20(a)と図20(b)で説明した焦点位置情報から注目領域に変換する処理を実行する。この領域を注目領域として登録する。当該登録処理後、本処理は終了となる。
ステップ1411では、顔検知処理結果により顔領域が有ったか否かで処理を分岐している。すなわちもし顔領域が有った場合、処理をステップ1413へ進める。またもし顔領域が無かった場合には、処理をステップ1415へ進める。
ステップ1413では、対象画像内に顔領域が有ったと判断されたので、キャッシュメモリ内にある顔領域データを対象画像の注目領域データとして登録する処理を行う。当該登録処理後、本処理は終了となる。
ステップ1415では、対象画像から、顔領域が存在せず、Exif情報の取得もできなかったことから、画像の中心位置を注目領域として登録する処理を行う。当該登録処理後、本処理は終了となる。
(第6の実施形態)
本実施形態に係る画像表示装置の基本構成は、第4の実施形態と同じである。ただし、注目領域は、顔検知領域と撮影情報の論理和を取っている。
図26は、本実施形態の注目領域検知後の結果を示した図である。領域1501が顔検知による注目領域、領域1503は焦点領域、領域1505は焦点領域1503より変換した注目領域となる。本実施形態は、注目領域を領域1501と領域1505の論理和で決定している。
(第7の実施形態)
本実施形態に係る画像表示装置の基本構成は、第2の実施形態と同じである。ただし、表示制御部110の動作の流れが異なる。図27は、本実施形態での表示制御部110の動作の流れを示すチャート図である。また図27の処理で使用される露出制御マスクの種類は、図8に示したものと同様である。露出制御マスクは、焦点位置や撮影シーンモードに応じて露出量及び/露出位置が異なるものが用意されている。以下これらの図を使って説明する。
先ず表示制御部110はメモリカードに記録されている画像データの総数を取得し(S1501)、1番目の画像データの顔検知を実行する(S1503、S1505)。
対象の画像データ内で顔が検知された場合(S1507)、図8(a)に示した左露出用マスク、中央露出用マスク、右露出用マスクの3つの露出制御マスクのうち、焦点位置情報に対応した焦点位置の露出制御マスクを決定する(S1509)。
一方で、対象の画像データ内で顔が検知できなかった場合、Exifヘッダ情報の読取を行い(S1511)、その中における焦点位置情報の有無を判断する(S1513)。もし焦点位置情報があった場合、焦点位置情報を元に図8(a)に示した露出マスクを決定する(S1515)。
また焦点位置情報が無かった場合、撮影シーン情報の有無を判断し(S1517)、撮影シーンがあった場合、撮影シーンモード情報に対応した露出制御マスクを決定する。(S1519)。
そして、以降の画像データに対しても同様の処理を行って、露出制御マスクを決定していく(S1523,S1505〜)。
図1は本発明の第1の実施形態におけるテレビ受像機の構成を示すブロック図である。 図2は本実施形態のテレビ受像機のリモコンを示すブロック図である。 図3は第1の実施形態における表示制御部110の動作の流れを示すチャート図である。 図4は第1の実施形態における表示制御部110が重なり制御するために用いた情報テーブルに含まれるレイアウト情報を示した図である。 図5は第1の実施形態における表示制御部110が重なり制御するために用いた情報テーブルの内容を示した図である。 図6は第1の実施形態における重なり制御の作用を示した図である。 図7は第2の実施形態における表示制御部110の動作の流れを示すチャート図である。 図8は第2の実施形態における表示制御部110が重なり制御するために用いた露出制御マスクの種類を示した図である。 図9は第2の実施形態における表示制御部110の動作の流れを示すチャート図である。 図10は第2の実施形態における重なり制御の動作例を示した図である。 図11は本発明を使わない場合の重ね表示の例と、本発明の第2の実施形態における重なり制御の作用を示した図である。 図12は第3の実施形態における表示制御部110の動作の流れを示すチャート図である。 図13は第3の実施形態における重なり制御の動作例を示した図である。 図14は本発明を使わない場合の画像一覧の表示例と、本発明を使った画像一覧の表示例を示した図である。 図15は本実施形態で使用したデジタルカメラの液晶画面に表示される画面例を示したものである。 図16は本発明の第1、第2の実施形態で用いた焦点位置を記録可能なデジタルカメラにおける撮影時の液晶モニターの状態を示した図である。 図17は、本発明の実施形態に係る画像表示装置の構成を示したブロック図である。 図18は、注目領域検出の一手法として使用されている顔検知処理の処理フローを示したフローチャートである。 図19(a)は、画像データの一例を示した図であり、図19(b)は、顔検知処理後の顔領域を判定結果の一例を示した図である。 図20(a)は、画像データの一例を示した図であり、図20(b)は、撮影情報による注目領域の範囲決定処理の一例を示した図である。 図21は、第4の実施形態の注目領域決定処理の処理フローを示したフローチャートである。 図22(a)は、無作為に画像を重ね表示した場合の一例を示した図であり、図22(b)は、注目領域の大きさを考慮した画像を重ね表示した場合の一例を示した図である。 図23は、重ね表示処理の処理フローを示したフローチャートである。 図24は、重ね一覧表示の一実施例を示した図である。 図25は、第5の実施形態の注目領域決定処理の処理フローを示したフローチャートである。 図26は、第6の実施形態の注目領域検知後の結果を示した図である。 図27は、第7の実施形態での表示制御部110の動作の流れを示すチャート図である。
符号の説明
100 デジタルテレビ受信装置
105 画像データ入力部
106 画像データ処理部
107 ビデオメモリ
108 表示合成部
109 カードスロット
110 表示制御部
113 記憶部
112 表示器
1101 画像表示装置
1201 制御CPU
1203 画像表示部

Claims (14)

  1. 多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示する工程を含む画像表示方法であって、
    前記少なくとも二つの画像の各々の画像に関連付けられた関連情報を取得する工程と、
    前記取得された関連情報に基づいて、前記少なくとも二つの画像の重なりの前後関係を決定する工程と、
    を含む画像表示方法。
  2. 多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示する工程を含む画像表示方法であって、
    前記少なくとも二つの画像の各々の画像に関連付けられた関連情報を取得する工程と、
    前記取得された関連情報に基づいて、前記少なくとも二つの画像のうち、一方の画像の重ね合わせによって隠される部分と露出する部分を有する他方の画像の露出量及び/又は露出位置を決定する工程と、
    を含む画像表示方法。
  3. 多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示する工程を含む画像表示方法であって、
    前記少なくとも二つの画像の各々の画像の顔領域を検知する顔検知工程と、
    該顔領域の大きさに基づいて、前記少なくとも二つの画像の重なりの前後関係を決定する工程と、
    を含む画像表示方法。
  4. 多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示する工程を含む画像表示方法であって、
    前記少なくとも二つの画像の各々の画像の顔領域を検知する顔検知工程と、
    該顔領域の位置に基づいて、前記少なくとも二つの画像のうち、一方の画像の重ね合わせによって隠される部分と露出する部分を有する他方の画像の露出量及び/又は露出位置を決定する工程と、
    を含む画像表示方法。
  5. 前記関連情報は撮影情報を含む請求項1または2に記載の画像表示方法。
  6. 前記撮影情報は、焦点位置に関する情報を含み、
    前記少なくとも二つの画像の重なりの前後関係を決定する際に、前記焦点位置を含む領域の大きさに基づいて決定する請求項5に記載の画像表示方法。
  7. 前記撮影情報は、焦点位置に関する情報を含み、
    前記露出量及び/又は露出位置を決定する際に、前記焦点位置を含む領域を露出するように決定する請求項5に記載の画像表示方法。
  8. 前記撮影情報は、前記画像の撮影日時に関する情報を含み、
    前記露出量及び/又は露出位置を決定する際に、重ね合わされる二つの画像の撮影日時が同一又は近接している場合における、前記他方の画像の露出量が、撮影日時が離隔している場合の前記他方の画像の露出量よりも少なくなるように露出量を決定する請求項5に記載の画像表示方法。
  9. 前記撮影情報は、前記画像の撮影モードに関する情報を含み、
    前記露出量及び/又は露出位置を決定する際に、前記撮影モードに応じた領域が露出する
    ように露出量及び/又は露出位置を決定する請求項5に記載の画像表示方法。
  10. 請求項1乃至9のいずれか一項に記載の画像表示方法を実行させるプログラム。
  11. 多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示するように画像表示器に画像信号を供給する装置であって、
    前記少なくとも二つの画像の各々の画像に関連付けられた関連情報を取得する関連情報取得部と、前記取得された関連情報に基づいて、前記少なくとも二つの画像の重なりの前後関係を決定する重なり決定部と、を有する画像表示装置。
  12. 多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示するように画像表示器に画像信号を供給する装置であって、
    前記少なくとも二つの画像の各々の画像に関連付けられた関連情報を取得する関連情報取得部と、前記取得された関連情報に基づいて、前記少なくとも二つの画像のうち、一方の画像 の重ね合わせによって隠される部分と露出する部分を有する他方の画像の露出量及
    び/又は露出位置を決定する露出決定部と、を有する画像表示装置。
  13. 多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示するように画像表示器に画像信号を供給する装置であって、
    前記少なくとも二つの画像の各々の画像の顔領域を検知する顔検知部と、
    顔領域の大きさ基づいて、前記少なくとも二つの画像の重なりの前後関係を決定する 重
    なり決定部と、を有する画像表示装置。
  14. 多数の画像のうち少なくとも二つの画像の一部を重なり合わせて画面上に同時に表示するように画像表示器に画像信号を供給する装置であって、
    前記少なくとも二つの画像の各々の画像の顔領域を検知する顔検知部と、
    顔領域の位置に基づいて、前記少なくとも二つの画像のうち、一方の画像の重ね合わせによって隠される部分と露出する部分を有する他方の画像の露出量及び/又は露出位置を決定する露出決定部と、
    を有する画像表示装置。
JP2004048430A 2003-06-20 2004-02-24 画像表示装置およびその画像表示方法 Expired - Fee Related JP4280656B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2004048430A JP4280656B2 (ja) 2003-06-20 2004-02-24 画像表示装置およびその画像表示方法
KR1020040045318A KR100637741B1 (ko) 2003-06-20 2004-06-18 화상표시방법, 프로그램 및 화상표시장치
CNB2004100597678A CN1312618C (zh) 2003-06-20 2004-06-18 图像显示方法及图像显示装置
US10/869,919 US7600191B2 (en) 2003-06-20 2004-06-18 Image display method, program, and image display apparatus
US12/360,298 US8023032B2 (en) 2003-06-20 2009-01-27 Image display method, program, and image display apparatus
US12/360,308 US8462178B2 (en) 2003-06-20 2009-01-27 Image display method, program, and image display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003176856 2003-06-20
JP2004048430A JP4280656B2 (ja) 2003-06-20 2004-02-24 画像表示装置およびその画像表示方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2009024852A Division JP4724757B2 (ja) 2003-06-20 2009-02-05 画像表示方法および画像処理装置
JP2009024851A Division JP4682254B2 (ja) 2003-06-20 2009-02-05 画像表示方法および画像処理装置

Publications (2)

Publication Number Publication Date
JP2005032219A true JP2005032219A (ja) 2005-02-03
JP4280656B2 JP4280656B2 (ja) 2009-06-17

Family

ID=33554441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004048430A Expired - Fee Related JP4280656B2 (ja) 2003-06-20 2004-02-24 画像表示装置およびその画像表示方法

Country Status (4)

Country Link
US (3) US7600191B2 (ja)
JP (1) JP4280656B2 (ja)
KR (1) KR100637741B1 (ja)
CN (1) CN1312618C (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007057958A (ja) * 2005-08-25 2007-03-08 Seiko Epson Corp 表示制御装置及び表示制御方法
JP2007078878A (ja) * 2005-09-12 2007-03-29 Canon Inc 画像表示装置及び画像表示方法
KR100714711B1 (ko) * 2006-01-05 2007-05-04 삼성전자주식회사 디지털사진 파일의 정렬 방법
JP2007295183A (ja) * 2006-04-24 2007-11-08 Fujifilm Corp 画像再生装置、画像再生方法、画像再生プログラム及び撮像装置
JP2008289073A (ja) * 2007-05-21 2008-11-27 Noritsu Koki Co Ltd 撮影コマ画像処理装置とこれを組み込んだ写真処理システム
JP2009139756A (ja) * 2007-12-07 2009-06-25 Sony Corp 表示装置、表示方法、及びプログラム
JP2010026021A (ja) * 2008-07-16 2010-02-04 Sony Corp 表示装置および表示方法
WO2010061661A1 (ja) * 2008-11-25 2010-06-03 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示方法及び情報記憶媒体
JP2010128587A (ja) * 2008-11-25 2010-06-10 Sony Computer Entertainment Inc 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
JP2014153666A (ja) * 2013-02-13 2014-08-25 Mitsubishi Electric Corp 広告提示装置
US9275486B2 (en) 2013-10-07 2016-03-01 Seiko Epson Corporation Collage image creating method and collage image creating device

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4280656B2 (ja) * 2003-06-20 2009-06-17 キヤノン株式会社 画像表示装置およびその画像表示方法
JP4208726B2 (ja) 2004-01-14 2009-01-14 キヤノン株式会社 画像表示装置、画像表示方法および画像表示プログラム
US7756362B2 (en) * 2005-01-28 2010-07-13 Canon Kabushiki Kaisha Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP2007079641A (ja) * 2005-09-09 2007-03-29 Canon Inc 情報処理装置及び情報処理方法及びプログラム及び記憶媒体
KR100708476B1 (ko) * 2005-10-20 2007-04-18 삼성전자주식회사 메모리카드의 성능을 고려한 영상화질 결정방법 및 이를적용한 촬영장치
JP4297111B2 (ja) * 2005-12-14 2009-07-15 ソニー株式会社 撮像装置、画像処理方法及びそのプログラム
US7864978B2 (en) * 2006-02-06 2011-01-04 Microsoft Corporation Smart arrangement and cropping for photo views
KR20080020789A (ko) * 2006-09-01 2008-03-06 엘지전자 주식회사 슬라이드 쇼 점프 기능을 구비한 영상기기 및 그 제어방법
JP4310330B2 (ja) * 2006-09-26 2009-08-05 キヤノン株式会社 表示制御装置及び表示制御方法
KR101295567B1 (ko) * 2006-09-28 2013-08-12 엘지전자 주식회사 티브이 및 이를 이용한 선호 채널 제공 방법
US7876368B2 (en) * 2006-10-17 2011-01-25 Hewlett-Packard Development Company, L.P. Slimming effect for digital photographs
JP4888165B2 (ja) * 2007-03-12 2012-02-29 富士ゼロックス株式会社 画像処理装置及びプログラム
US8011998B2 (en) * 2007-04-12 2011-09-06 Lamarche Paul Expansible sanding block exhibiting oblique extending surfaces
US9037599B1 (en) * 2007-05-29 2015-05-19 Google Inc. Registering photos in a geographic information system, and applications thereof
JP4851406B2 (ja) * 2007-08-31 2012-01-11 富士フイルム株式会社 多眼撮影システムにおける調整用画像表示方法および多眼撮影システム
JP5281265B2 (ja) * 2007-10-02 2013-09-04 キヤノン株式会社 印刷処理方法およびそれを実現する情報処理装置
JP2009141780A (ja) * 2007-12-07 2009-06-25 Canon Inc 情報処理装置及び情報処理方法
JP5084682B2 (ja) * 2008-09-25 2012-11-28 キヤノン株式会社 画像処理装置、制御方法、プログラム及び記録媒体
JP2010252008A (ja) * 2009-04-15 2010-11-04 Olympus Imaging Corp 撮影装置、表示装置、再生装置、撮影方法、および表示方法
US8179417B2 (en) * 2009-07-22 2012-05-15 Hewlett-Packard Development Company, L.P. Video collaboration
US9524087B2 (en) * 2011-05-20 2016-12-20 Kodak Alaris Inc. Imaging product selection method
JP5762142B2 (ja) * 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
CN102810042B (zh) * 2011-06-02 2015-04-29 宏达国际电子股份有限公司 影像缩图的版面产生方法及系统
JP5532018B2 (ja) * 2011-06-27 2014-06-25 コニカミノルタ株式会社 端末装置、プログラムおよびリモート操作システム
USD665395S1 (en) 2011-09-12 2012-08-14 Microsoft Corporation Display screen with animated graphical user interface
JP2013153429A (ja) * 2011-12-27 2013-08-08 Canon Inc 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム
US9049382B2 (en) * 2012-04-05 2015-06-02 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP6039401B2 (ja) * 2012-12-18 2016-12-07 キヤノン株式会社 印刷データ処理装置、印刷データ処理方法、およびプログラム
JP2015097382A (ja) 2013-10-08 2015-05-21 キヤノン株式会社 情報処理装置、撮像システム、情報処理方法、及びプログラム
USD771118S1 (en) * 2014-03-27 2016-11-08 Google Inc. Portion of a display panel with a graphical user interface
JP6389801B2 (ja) * 2015-05-27 2018-09-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
USD877175S1 (en) * 2018-06-04 2020-03-03 Apple Inc. Electronic device with graphical user interface
USD883319S1 (en) 2018-10-29 2020-05-05 Apple Inc. Electronic device with graphical user interface

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08171471A (ja) * 1994-12-16 1996-07-02 Canon Inc 時系列データの表示方法及びそれを実現する情報処理装置
JP2000137791A (ja) * 1998-10-30 2000-05-16 Minolta Co Ltd 画像評価装置
JP2000276484A (ja) * 1999-03-25 2000-10-06 Konica Corp 画像検索装置、画像検索方法及び画像表示装置
JP2002358522A (ja) * 2001-05-31 2002-12-13 Olympus Optical Co Ltd 画像選出支援装置および画像選出支援方法ならびに画像選出支援プログラム
JP2003006666A (ja) * 2001-06-19 2003-01-10 Seiko Epson Corp 画像ファイル生成装置および画像処理装置

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4478318A (en) * 1982-05-14 1984-10-23 Euclid, Inc. Vehicle brake system
DE3230970A1 (de) * 1982-08-20 1984-02-23 Bosch Gmbh Robert Mehrkreis-bremsanlage
JPH0727349B2 (ja) * 1985-07-01 1995-03-29 株式会社日立製作所 マルチウインドウの表示制御方式
US5060170A (en) * 1989-08-09 1991-10-22 International Business Machines Corp. Space allocation and positioning method for screen display regions in a variable windowing system
JPH04182696A (ja) * 1990-11-17 1992-06-30 Nintendo Co Ltd 画像処理装置
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
US6205259B1 (en) * 1992-04-09 2001-03-20 Olympus Optical Co., Ltd. Image processing apparatus
US5487143A (en) * 1994-04-06 1996-01-23 Altera Corporation Computer user interface having tiled and overlapped window areas
EP1074923B1 (en) * 1994-12-16 2005-02-23 Canon Kabushiki Kaisha Hierarchical data display method and information processing system for realizing it
US5675755A (en) * 1995-06-07 1997-10-07 Sony Corporation Window system preventing overlap of multiple always-visible windows
US5963664A (en) * 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US6549681B1 (en) * 1995-09-26 2003-04-15 Canon Kabushiki Kaisha Image synthesization method
US5611199A (en) * 1995-12-13 1997-03-18 Caterpillar Inc. Two stage electrohydraulic pressure control valve
JP3614235B2 (ja) 1996-03-19 2005-01-26 富士通株式会社 情報探索装置
US5850232A (en) * 1996-04-25 1998-12-15 Microsoft Corporation Method and system for flipping images in a window using overlays
US6389179B1 (en) * 1996-05-28 2002-05-14 Canon Kabushiki Kaisha Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image
US5904228A (en) * 1996-08-09 1999-05-18 Case Corporation Brake control system and related method
AU729248B2 (en) * 1996-11-22 2001-01-25 Svendborg Brakes A/S A hydraulic braking system
KR100224320B1 (ko) 1996-12-18 1999-10-15 이계철 비디오와 그래픽 윈도우 제어 장치 및 그 제어 방법
US6512857B1 (en) * 1997-05-09 2003-01-28 Sarnoff Corporation Method and apparatus for performing geo-spatial registration
US6069606A (en) * 1997-05-15 2000-05-30 Sony Corporation Display of multiple images based on a temporal relationship among them with various operations available to a user as a function of the image size
US6259457B1 (en) * 1998-02-06 2001-07-10 Random Eye Technologies Inc. System and method for generating graphics montage images
US6473088B1 (en) * 1998-06-16 2002-10-29 Canon Kabushiki Kaisha System for displaying multiple images and display method therefor
US6744934B2 (en) * 1998-07-23 2004-06-01 Fuji Photo Film Co., Ltd. Method, apparatus and recording medium for generating an image file having hierarchical image data representing a plurality of still images having different display dimensions
JP2000138814A (ja) 1998-10-30 2000-05-16 Minolta Co Ltd 画像レイアウト装置
KR100361497B1 (ko) * 1999-01-08 2002-11-18 엘지전자 주식회사 얼굴영역 추출방법
US6891561B1 (en) * 1999-03-31 2005-05-10 Vulcan Patents Llc Providing visual context for a mobile active visual display of a panoramic region
US7098914B1 (en) * 1999-07-30 2006-08-29 Canon Kabushiki Kaisha Image synthesis method, image synthesis apparatus, and storage medium
EP1107064A3 (en) * 1999-12-06 2004-12-29 Olympus Optical Co., Ltd. Exposure apparatus
US20020033837A1 (en) * 2000-01-10 2002-03-21 Munro James A. Multiple-image viewer
JP4325075B2 (ja) 2000-04-21 2009-09-02 ソニー株式会社 データオブジェクト管理装置
JP4730571B2 (ja) 2000-05-01 2011-07-20 ソニー株式会社 情報処理装置および方法、並びにプログラム格納媒体
JP2001313883A (ja) 2000-05-01 2001-11-09 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
JP2001312349A (ja) 2000-05-01 2001-11-09 Sony Corp 情報処理装置および方法、並びにプログラム格納媒体
US7095905B1 (en) * 2000-09-08 2006-08-22 Adobe Systems Incorporated Merging images to form a panoramic image
JP3737690B2 (ja) 2000-09-28 2006-01-18 株式会社東芝 画像処理方法、画像処理装置及び画像処理プログラム
GB2370438A (en) * 2000-12-22 2002-06-26 Hewlett Packard Co Automated image cropping using selected compositional rules.
US6697124B2 (en) 2001-03-30 2004-02-24 Koninklijke Philips Electronics N.V. Smart picture-in-picture
GB2378340A (en) * 2001-07-31 2003-02-05 Hewlett Packard Co Generation of an image bounded by a frame or of overlapping images
JP2003078743A (ja) 2001-08-30 2003-03-14 Minolta Co Ltd デジタル画像入力装置、およびプログラム
US6970199B2 (en) * 2001-10-05 2005-11-29 Eastman Kodak Company Digital camera using exposure information acquired from a scene
US7068309B2 (en) * 2001-10-09 2006-06-27 Microsoft Corp. Image exchange with image annotation
JP2003173304A (ja) 2001-12-04 2003-06-20 Sony Corp 情報提供システム、画像提供装置および方法、携帯情報処理装置および方法、並びにプログラム
JP4467267B2 (ja) * 2002-09-06 2010-05-26 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、画像処理装置、および画像処理システム
JP2004199248A (ja) * 2002-12-17 2004-07-15 Seiko Epson Corp 画像レイアウト装置、画像レイアウト方法、及びプログラム
US7117453B2 (en) * 2003-01-21 2006-10-03 Microsoft Corporation Media frame object visualization system
JP4280656B2 (ja) * 2003-06-20 2009-06-17 キヤノン株式会社 画像表示装置およびその画像表示方法
JP2005094741A (ja) * 2003-08-14 2005-04-07 Fuji Photo Film Co Ltd 撮像装置及び画像合成方法
US7639839B2 (en) * 2004-03-31 2009-12-29 Fuji Xerox Co., Ltd. Extracting video regions of interest
US7886024B2 (en) * 2004-07-01 2011-02-08 Microsoft Corporation Sharing media objects in a network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08171471A (ja) * 1994-12-16 1996-07-02 Canon Inc 時系列データの表示方法及びそれを実現する情報処理装置
JP2000137791A (ja) * 1998-10-30 2000-05-16 Minolta Co Ltd 画像評価装置
JP2000276484A (ja) * 1999-03-25 2000-10-06 Konica Corp 画像検索装置、画像検索方法及び画像表示装置
JP2002358522A (ja) * 2001-05-31 2002-12-13 Olympus Optical Co Ltd 画像選出支援装置および画像選出支援方法ならびに画像選出支援プログラム
JP2003006666A (ja) * 2001-06-19 2003-01-10 Seiko Epson Corp 画像ファイル生成装置および画像処理装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007057958A (ja) * 2005-08-25 2007-03-08 Seiko Epson Corp 表示制御装置及び表示制御方法
JP2007078878A (ja) * 2005-09-12 2007-03-29 Canon Inc 画像表示装置及び画像表示方法
KR100714711B1 (ko) * 2006-01-05 2007-05-04 삼성전자주식회사 디지털사진 파일의 정렬 방법
JP4724890B2 (ja) * 2006-04-24 2011-07-13 富士フイルム株式会社 画像再生装置、画像再生方法、画像再生プログラム及び撮像装置
JP2007295183A (ja) * 2006-04-24 2007-11-08 Fujifilm Corp 画像再生装置、画像再生方法、画像再生プログラム及び撮像装置
US8040419B2 (en) 2006-04-24 2011-10-18 Fujifilm Corporation Image reproducing device capable of zooming in a region of an image, image reproducing method and recording medium for the same
JP2008289073A (ja) * 2007-05-21 2008-11-27 Noritsu Koki Co Ltd 撮影コマ画像処理装置とこれを組み込んだ写真処理システム
JP2009139756A (ja) * 2007-12-07 2009-06-25 Sony Corp 表示装置、表示方法、及びプログラム
US8726153B2 (en) 2007-12-07 2014-05-13 Sony Corporation Multi-user networked digital photo display with automatic intelligent organization by time and subject matter
JP2010026021A (ja) * 2008-07-16 2010-02-04 Sony Corp 表示装置および表示方法
WO2010061661A1 (ja) * 2008-11-25 2010-06-03 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示方法及び情報記憶媒体
JP2010128587A (ja) * 2008-11-25 2010-06-10 Sony Computer Entertainment Inc 画像表示装置、画像表示方法、プログラム及び情報記憶媒体
US8797348B2 (en) 2008-11-25 2014-08-05 Sony Corporation Image display apparatus, image display method, and information storage medium
JP2014153666A (ja) * 2013-02-13 2014-08-25 Mitsubishi Electric Corp 広告提示装置
US9275486B2 (en) 2013-10-07 2016-03-01 Seiko Epson Corporation Collage image creating method and collage image creating device

Also Published As

Publication number Publication date
US8462178B2 (en) 2013-06-11
CN1573755A (zh) 2005-02-02
US20050001933A1 (en) 2005-01-06
US7600191B2 (en) 2009-10-06
US8023032B2 (en) 2011-09-20
US20090142005A1 (en) 2009-06-04
US20090189914A1 (en) 2009-07-30
KR20040111131A (ko) 2004-12-31
KR100637741B1 (ko) 2006-10-25
JP4280656B2 (ja) 2009-06-17
CN1312618C (zh) 2007-04-25

Similar Documents

Publication Publication Date Title
JP4280656B2 (ja) 画像表示装置およびその画像表示方法
KR100691531B1 (ko) 화상표시방법 및 화상표시장치
KR100714888B1 (ko) 화상표시방법 및 화상표시장치
JP4208726B2 (ja) 画像表示装置、画像表示方法および画像表示プログラム
US7808555B2 (en) Image display method and image display apparatus with zoom-in to face area of still image
JP4614391B2 (ja) 画像表示方法及び画像表示装置
JP4682254B2 (ja) 画像表示方法および画像処理装置
JP4136838B2 (ja) 画像表示方法および画像表示装置
JP5663920B2 (ja) 電子機器、およびパノラマ画像表示プログラム
JP5078041B2 (ja) Av装置におけるデータ活用方法
JP4630749B2 (ja) 画像出力装置及びその制御方法
JP4827907B2 (ja) 画像表示方法および画像表示装置
JP5195317B2 (ja) カメラ装置、及び撮影方法、撮影制御プログラム
JP2005157027A (ja) 画像表示方法
JP2006229267A (ja) デジタルカメラ、動画編集方法、及びプログラム
JP2005175863A (ja) 画像表示方法及び画像表示装置
JP2007180727A (ja) 画像再生装置、カレンダ表示方法、プログラム、および記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120319

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4280656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees