JP2015170343A - 画像表示装置および画像表示方法 - Google Patents

画像表示装置および画像表示方法 Download PDF

Info

Publication number
JP2015170343A
JP2015170343A JP2014047341A JP2014047341A JP2015170343A JP 2015170343 A JP2015170343 A JP 2015170343A JP 2014047341 A JP2014047341 A JP 2014047341A JP 2014047341 A JP2014047341 A JP 2014047341A JP 2015170343 A JP2015170343 A JP 2015170343A
Authority
JP
Japan
Prior art keywords
image
area
display screen
coordinates
enlarged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014047341A
Other languages
English (en)
Inventor
達哉 村上
Tatsuya Murakami
達哉 村上
淳 入江
Atsushi Irie
淳 入江
正敬 千賀
Masataka Chiga
正敬 千賀
みずき 古田
Mizuki Furuta
みずき 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2014047341A priority Critical patent/JP2015170343A/ja
Priority to KR1020150012585A priority patent/KR20150106330A/ko
Priority to EP15153006.0A priority patent/EP2919111A1/en
Priority to CN201510050308.1A priority patent/CN104915109A/zh
Priority to US14/613,797 priority patent/US9489715B2/en
Publication of JP2015170343A publication Critical patent/JP2015170343A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Abstract

【課題】画像の拡大機能を有する画像表示装置において、ユーザが拡大表示を所望する範囲を精度良く推定する。【解決手段】表示画面と、前記表示画面に画像を出力する画像出力手段と、前記画像に含まれる一つ以上のオブジェクトを抽出し、当該オブジェクトにそれぞれ対応する領域である第一の領域を設定する領域設定手段と、ユーザによって指定された、前記表示画面上の座標を取得する操作取得手段と、前記指定された座標に基づいて、表示中の画像を拡大表示する画像拡大手段と、を有し、前記画像拡大手段は、前記指定された座標が、前記設定された第一の領域内にある場合に、当該第一の領域に含まれるオブジェクトを拡大表示する。【選択図】図1

Description

本発明は、画像を表示する画像表示装置に関する。
近年、スマートフォンやタブレットなど、画面にタッチすることで操作が行えるコンピュータが広く普及している。このようなコンピュータを用いて写真などの画像を表示すると、タップやピンチなどの直感的なジェスチャ操作によって、拡大や縮小などを行うことができる。
一方、ジェスチャ操作に基づいて画像を拡大する場合、倍率を適切に設定しなければならないという課題がある。倍率が適切ではない場合、ユーザは、所望の倍率を得るために何回も拡大操作を行わなければならない。このため、ユーザが所望する拡大倍率を推定するための技術が数多く考案されている。
例えば、特許文献1に記載の画像表示プログラムは、画像に含まれる顔を検出し、ユーザによってある位置が指定された場合に、当該位置に最も近い人物の顔を拡大表示することを特徴としている。また、特許文献2に記載の電子アルバムは、画像中に存在する複数の顔を検出し、全員の顔がフレームアウトしないような倍率で画像の拡大表示を行うことを特徴としている。
特開2006−178222号公報 特開2004−193933号公報
特許文献1に記載の発明では、ユーザが拡大表示させたいと推定される対象(顔)を決定し、当該対象がフレームアウトしないような拡大倍率を決定している。
しかし、当該発明では、任意の対象を指定した場合に、当該対象を拡大表示させることはできるが、複数の対象を指定することができない。例えば、画像に人物が二人並んで写っているような場合、どちらかの顔を画面いっぱいに拡大することはできるが、二人の顔を画面いっぱいに拡大したいようなケースには対応することができない。
一方、特許文献2に記載の発明では、画像に複数の人物が写っている場合に、全員の顔が画面に収まるような倍率で画像を拡大させることができる。しかし、当該発明は、写っているすべての顔を対象として処理を行うため、数人の顔のみを拡大させるといったことができない。
すなわち、いずれの発明も、ユーザが所望する範囲を正しく拡大することができないケースがある。
本発明は上記の課題を考慮してなされたものであり、画像の拡大機能を有する画像表示装置において、ユーザが拡大表示を所望する範囲を精度良く推定する技術を提供することを目的とする。
上記課題を解決するため、本発明に係る画像表示装置は、
表示画面と、前記表示画面に画像を出力する画像出力手段と、前記画像に含まれる一つ以上のオブジェクトを抽出し、当該オブジェクトにそれぞれ対応する領域である第一の領域を設定する領域設定手段と、ユーザによって指定された、前記表示画面上の座標を取得する操作取得手段と、前記指定された座標に基づいて、表示中の画像を拡大表示する画像拡大手段と、を有し、前記画像拡大手段は、前記指定された座標が、前記設定された第一の領域内にある場合に、当該第一の領域に含まれるオブジェクトを拡大表示することを特徴とする。
第一の領域とは、画像に含まれるオブジェクトに対応する領域である。オブジェクトとは、画像に含まれる一以上の対象物であり、例えば画像が写真である場合、人間の顔であってもよいし、顔を含む人間の体全体であってもよい。また、第一の領域は、例えば、オブジェクトに外接する矩形であってもよいし、オブジェクトの輪郭を表す閉領域であってもよい。画像にオブジェクトが複数含まれる場合、領域設定手段によって、複数の第一の領域が設定される。
また、操作取得手段は、ユーザによって指定された、表示画面上の座標を取得する手段である。画面上の座標の指定は、どのような手段によって行ってもよい。例えば、マウスなどの入力装置を用いて行ってもよいし、タッチパネルなどを用いて行ってもよい。
また、画像拡大手段は、指定された座標が、設定された第一の領域内にある場合に、当該第一の領域に含まれるオブジェクトを対象として拡大表示を行う。例えば、当該オブジェクトを画面いっぱいに表示するような倍率を求め、画像の拡大を行う。
また、前記領域設定手段は、前記第一の領域を含む領域であって、前記第一の領域よりも広い領域である第二の領域をさらに設定し、前記画像拡大手段は、前記指定された座標が、前記第一の領域外であって、かつ、第二の領域内にある場合に、当該座標に対して所定の範囲内にあるオブジェクトを拡大表示することを特徴としてもよい。
第二の領域とは、第一の領域を含み、かつ、第一の領域よりも広い領域である。ユーザが、第一の領域の外側であり、かつ、第二の領域の内側を指定した場合、第一の領域に含まれるオブジェクトだけではなく、当該座標の近傍にあるオブジェクトも同時に拡大しようとしていると推定することができる。そこで、指定された座標に対して所定の範囲内にある一つ以上のオブジェクトを抽出し、抽出したオブジェクトを拡大の対象とする。所定の範囲内とは、所定の距離以内であってもよいし、所定の大きさの図形の範囲内であってもよい。
また、前記画像拡大手段は、前記指定された座標が、前記設定された第一の領域および第二の領域のいずれにも属さない場合に、所定の倍率を用いて画像を拡大表示することを特徴としてもよい。
第一の領域および第二の領域に含まれない場所が指定された場合、ユーザは、オブジェクトを特段指定せずに拡大を行おうとしていると推定できる。このような場合は、所定の倍率を用いて画像を拡大表示することが好ましい。
また、前記画像拡大手段は、オブジェクトを拡大表示する際に、拡大対象のオブジェクトが前記表示画面を逸脱しないような倍率を求め、当該倍率を用いて画像を拡大表示することを特徴としてもよい。
具体的には、例えば、当該オブジェクトに対応する第一の領域が表示画面を逸脱しないような倍率を求めてもよいし、当該オブジェクトの輪郭を検出し、当該輪郭が表示画面を逸脱しないような倍率を求めてもよい。
また、前記画像拡大手段は、オブジェクトを拡大表示する際に、拡大対象のオブジェクトの中心が前記表示画面の中心となるように、拡大後の中心座標を決定することを特徴としてもよく、前記画像拡大手段は、オブジェクトを拡大表示する際に、前記指定された座標が前記表示画面の中心となるように、拡大後の中心座標を決定することを特徴としてもよい。
このようにすることで、ユーザが拡大を所望するオブジェクトを自然に拡大表示させることができる。なお、拡大対象のオブジェクトが複数ある場合、複数のオブジェクトの中間点が表示画面の中心に来るようにしてもよい。
また、前記表示画面および前記操作取得手段は、タッチパネルディスプレイによって構成されることを特徴としてもよく、前記領域設定手段が抽出するオブジェクトは、人間の顔であることを特徴としてもよい。
本発明に係る画像表示装置は、タッチパネルディスプレイを備えた装置に対して好適に適用することができ、また、人の顔を含んだ写真を表示する装置に対して好適に適用することができる。
なお、本発明は、上記手段の少なくとも一部を含む画像表示装置として特定することができる。また、本発明は、画像表示方法として特定することもできる。また、本発明は、コンピュータに上記画像表示方法を実行させるプログラムとして特定することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
本発明によれば、画像の拡大機能を有する画像表示装置において、ユーザが拡大表示を所望する範囲を精度良く推定することができる。
実施形態に係る画像表示装置のシステム構成図である。 実施形態に係る画像表示装置の処理フローチャート図である。 画像表示装置に表示される画面を説明する図である。 画像読み込み処理のフローチャート図である。 第一の領域および第二の領域の配置場所を説明する図である。 画像拡大処理のフローチャート図である。 ユーザの操作に基づいて拡大される範囲を説明する図である。 ユーザの操作に基づいて拡大される範囲を説明する第二の図である。
(システム構成)
以下、本発明の好ましい実施形態について図面を参照しながら説明する。
本実施形態に係る画像表示装置は、グラフィックや写真などの画像を、内蔵されたタッチパネルディスプレイに出力する機能を有するタブレット型コンピュータである。また、本実施形態に係る画像表示装置は、ユーザが行った操作に基づいて、表示中の画像を拡大および縮小することができる。図1は、本実施形態に係る画像表示装置10のシステム構成図である。
画像表示装置10は、画像取得部11、入力部12、出力部13、オブジェクト検出部14、表示制御部15から構成される。画像表示装置10は、補助記憶装置に記憶されたプログラムが主記憶装置にロードされ、CPUによって実行されることによって図1に図
示した各手段が動作する。(CPU、補助記憶装置、主記憶装置はいずれも不図示)
画像取得部11は、表示する画像を取得する手段であり、本実施形態では、固定ディスクドライブやフラッシュメモリといった記憶装置である。なお、画像取得部11は、装置の外部から画像を取得する手段(例えば通信装置)であってもよい。
また、入力部12は、ユーザが行った入力操作を受け付ける手段であり、具体的には、タッチパネルとその制御手段から構成される。入力部12は、タッチパネルへの指の接触を検知し、ユーザが行った入力操作を取得することができる。
また、出力部13は、ユーザに対して情報を提示する手段である。具体的には、液晶ディスプレイとその制御手段から構成され、ユーザに提示するグラフィックを生成してディスプレイに表示させる手段である。
入力部12を構成するタッチパネル、および出力部13を構成する液晶ディスプレイは、本実施形態では一つのタッチパネルディスプレイ(タッチスクリーン)からなる。
オブジェクト検出部14は、画像中に含まれるオブジェクトを検出する手段である。オブジェクトとは、典型的には人物や人物の顔であるが、存在する領域を特定することができれば、オブジェクトはどのようなものであってもよい。例えば、画像が日本地図である場合、各都道府県をそれぞれオブジェクトとしてもよい。また、画像が道路を監視するカメラの映像であるような場合、車両をオブジェクトとしてもよい。本実施形態の説明では、オブジェクトとは人の顔であるものとする。
表示制御部15は、画面表示を制御する手段である。具体的には、入力部12を通してユーザが行った操作を取得する処理と、画像取得部11を通して画像を取得し、出力部13を通してユーザに提供する処理と、ユーザが行った操作に基づいて、表示中の画像を拡大および縮小する処理を実行する。詳細な方法については後述する。
(画像表示処理の概要)
次に、画像表示装置10が行う画像表示処理について、処理フローチャートを参照しながら説明する。図2は、画像表示装置10が行う画像表示処理のフローチャート図である。図2に示した処理は、画像表示装置10の起動とともに開始される。
ステップS11は、画像表示装置10を初期化するステップである。具体的には、CPUが補助記憶装置からプログラムを読み込み、主記憶装置に展開して実行する。プログラムが実行されると、表示制御部15が操作用の画面を生成し、出力部13を通してタッチスクリーン上に表示する。
ここで、画像表示装置に表示される画面について説明する。図3は、画像表示装置10を表した図であり、符号100がタッチスクリーンである。表示制御部15は、出力部13を通して当該スクリーン上にグラフィックを表示させることができる。
また、表示制御部15は、画面を二種類の表示モードに切り替えることができる。一つは、図3(A)に示したような、閲覧する画像を選択する画面(画像選択画面)であり、もう一つは、図3(B)に示したような、選択した画像を表示する画面(画像閲覧画面)である。ステップS11が実行されると、表示制御部15は、まず画像選択画面を生成して出力する。画像選択画面では、画像取得部11に記憶された複数の画像がサムネイル形式で表示される。
ステップS12は、表示制御部15が、入力部12を通して、タッチパネル上で行われた入力操作を取得するステップである。タッチパネル上で行うことができる入力操作として、ここでは、画像選択操作、画像拡大操作、画像縮小操作、閲覧終了操作の4つの操作を挙げて、それぞれ概要を説明する。なお、これ以外の操作については、実施形態の説明
では省略する。
画像選択操作は、ユーザが閲覧したい画像を選択する操作である。画像選択操作は、画像選択画面でのみ有効となる。ユーザが、表示中のサムネイルのうちの一つを選択する操作(例えばタップ操作、ダブルタップ操作等)を行うと、表示制御部15が対応する画像を読み込み、画像閲覧画面を表示させる。本操作に対応する処理ステップは、ステップS13である。
画像拡大操作は、表示中の画像の表示倍率を拡大する操作である。画像拡大操作は、画像閲覧画面でのみ有効となる。ユーザが、表示中の画像の任意の位置をタップ操作などによって指定すると、表示制御部15が、当該指定された位置に基づいて、拡大倍率および拡大後の中心座標を算出し、画像の拡大を行う。本操作に対応する処理ステップは、ステップS14である。
画像縮小操作は、表示中の画像の表示倍率を縮小する操作である。画像縮小操作は、画像閲覧画面でのみ有効となる。ユーザが、表示中の画像の任意の位置をタップ操作などによって指定すると、表示制御部15が、当該指定された位置に基づいて、縮小倍率および縮小後の中心座標を算出し、画像の縮小を行う。本操作に対応する処理ステップは、ステップS15である。
閲覧終了操作は、表示中の画像を閉じる操作である。閲覧終了操作は、画像閲覧画面でのみ有効となる。ユーザが、表示中の画像を閉じる操作を行うと、表示制御部15が、表示中の画像を破棄し、画像選択画面を再表示させる。本操作に対応する処理ステップは、ステップS16である。
(画像表示処理の詳細)
次に、ステップS13,S14,S15,S16でそれぞれ行われる処理の詳細について説明する。
ステップS13は、表示制御部15が、選択された画像を読み込み、画像閲覧画面を表示させるステップである。ステップS12で取得した操作が、画像を選択する操作であった場合、処理はステップS13に遷移する。
図4は、ステップS13で行う処理の内容を詳細に示したフローチャートである。
まず、ステップS131で、指定された画像を画像取得部11から読み出し、デコードする。ここでは、図3(B)に示した画像が読み出されたものとする。
ステップS132は、オブジェクト検出部14が、取得した画像からオブジェクトを検出するステップである。前述したように、本実施形態では、オブジェクトとは人の顔である。図3(B)の場合、三人の人物の顔をそれぞれオブジェクトとして検出する。画像中に含まれる顔を検出する方法については、公知のものを利用できるため、詳細な説明は省略する。
ステップS133は、検出したオブジェクトに対応する領域を設定するステップである。本実施形態では、検出したオブジェクトに対応する領域である第一の領域と、第一の領域よりも大きい領域である第二の領域を設定する。
第一の領域および第二の領域を設定する方法について、図5を参照して説明する。図5は、図3(B)に示した画像を用いて、オブジェクト(すなわち人の顔)を検出し、第一の領域および第二の領域を設定した結果を表す図である。
第一の領域は、検出したオブジェクトに外接する矩形領域である。図5の例では、第一の領域として、三人の人物の顔にそれぞれ外接する領域である、領域101A、102A、103Aが設定される。
また、第二の領域は、第一の領域の所定倍の面積を持つ領域である。また、第二の領域の中心点は、第一の領域の中心点である。図5の例では、第二の領域として、領域101B、102B、103Bが設定される。なお、第二の領域の大きさは、第一の領域よりも大きければ、任意の大きさとすることができる。例えば、第一の領域よりも縦横方向にそれぞれ所定のピクセル数だけ大きい領域としてもよい。
設定された第一の領域および第二の領域についての情報は、表示中の画像に対する閲覧終了操作が行われるまで、表示制御部15によって保持される。
次に、ステップS14で行う処理の詳細について説明する。
ステップS14は、表示制御部15が、表示中の画像を拡大表示させるステップである。ステップS12で取得した操作が、画像を拡大する操作であった場合、処理はステップS14に遷移する。画像を拡大する操作とは、本実施形態では、ユーザが画像中の任意の場所をタップする操作である。
図6は、ステップS14で行う処理の内容を詳細に示したフローチャートである。
まず、ステップS141で、表示中の画像にオブジェクトが一つ以上含まれるか判定する。この結果、オブジェクトが含まれない場合、ステップS147に遷移し、既定の倍率を用いて拡大表示を行う。表示中の画像にオブジェクトが含まれる場合、処理はステップS142へ遷移し、ユーザによって指定された(すなわちタップされた)座標を取得する。
ステップS142以降の処理では、ユーザによってタップされた場所が、「第一の領域内であるか」「第一の領域外であって、第二の領域内であるか」「第二の領域外であるか」の三パターンに分け、パターンごとに異なる拡大処理を行う。それぞれのパターンについて、詳しく説明する。
(1)第一の領域内がタップされた場合。
まず、ステップS143で、ユーザによってタップされた場所が、第一の領域内にあるか否かを判定する。この結果、第一の領域内にあった場合(S143−Yes)、処理はステップS144に遷移し、対応するオブジェクトを拡大表示させる。
ユーザによってタップされた場所が第一の領域内であった場合、ユーザが、当該第一の領域に対応するオブジェクトを拡大しようとしていることが推定できる。例えば、タップされた場所が、図5の丸付き数字1番で示した場所であった場合、ユーザは、画面左側に写っている人物の顔を拡大しようとしていることが推定できる。
図7は、第一の領域内が指定された場合の拡大範囲を説明する図である。
ステップS144では、対応する人物の顔を対象として拡大表示を行う。具体的には、領域101Aが画面外に逸脱しない最大の倍率を決定し、拡大後の画面の中心を、領域101Aの中心点に設定する。この結果、点線で示した領域201が画面いっぱいに拡大表示される。画像の拡大が終了すると、処理はステップS12へ遷移し、入力待ちとなる。
なお、本例では、領域101Aの内部が指定された場合の例を挙げたが、領域102Aおよび103Aの内部が指定された場合であっても、同様の処理が行われる。
(2)第一の領域外、かつ、第二の領域内がタップされた場合
ユーザによってタップされた場所が、第一の領域外であった場合(S143−No)、ステップS145で、当該場所が第二の領域内にあるかを判定する。この結果、第二の領
域内であった場合(S145−Yes)、処理はステップS146に遷移し、拡大表示の対象となる一つ以上のオブジェクトを決定したうえで、当該オブジェクトを拡大表示させる。
ステップS146における処理を具体的に説明する。
ユーザによってタップされた場所が第一の領域外であって、かつ、第二の領域内であった場合、ユーザが、第一の領域に含まれるオブジェクトだけではなく、当該座標の近傍にあるオブジェクトも同時に拡大しようとしていることが推定できる。例えば、タップされた場所が、図5の丸付き数字2番で示した場所であった場合、ユーザは、画面中央に写っている二人の顔を拡大しようとしていることが推定できる。
図8は、第一の領域外、かつ、第二の領域内が指定された場合の拡大範囲を説明する図である。ステップS146では、以下の処理によって、拡大を行う対象のオブジェクトを特定する。
(2−1)ユーザによって指定された座標を中心とする第三の領域を設定する
第三の領域とは、拡大を行う対象のオブジェクトを特定するための領域であり、本実施形態では、「指定された座標を中心とした、所定の大きさを有する矩形領域」である。本例では、第三の領域として、領域301を設定する。
(2−2)第三の領域に含まれるオブジェクトを抽出する
次に、第三の領域に、その全部ないし一部が含まれるオブジェクト(第一の領域)を抽出する。本例の場合、領域101Aおよび102Aが抽出される。
(2−3)抽出されたオブジェクトを対象として、拡大表示を行う
次に、抽出した領域101Aおよび102Aが共に画面外に逸脱しない最大の倍率を決定し、拡大後の画面の中心を、領域101Aおよび102Aの中間点に設定する。この結果、点線で示した領域302が画面いっぱいに拡大表示される。
画像の拡大が終了すると、処理はステップS12へ遷移し、入力待ちとなる。
なお、本例では、第三の領域として、指定された座標を中心とする矩形領域を設定したが、第三の領域は必ずしも矩形でなくてもよい。例えば、指定された座標を中心とする円であってもよいし、他の形状を持つ領域であってもよい。
また、指定された座標に対して所定の範囲内にあるオブジェクトを抽出することができれば、例示した方法以外の方法を用いてもよい。例えば、指定された座標が、複数の第二の領域に含まれる場合、当該複数の第二の領域に対応するオブジェクトを全て拡大対象としてもよい。図5の例の場合、指定された座標は、領域101Bおよび102Bの双方の内側にあるため、領域101Bおよび102Bに含まれる二つの顔を拡大対象とする、という判定を行ってもよい。
(3)第二の領域外がタップされた場合
ユーザによってタップされた場所が、第二の領域に属さない場所であった場合(S145−No)、処理はステップS147に遷移する。この場合、ユーザは、特定のオブジェクトを拡大しようとしているのではないと推定することができる。従って、ステップS147では、既定の倍率を用いて拡大表示を行う。
次に、ステップS15およびステップS16で行う処理の詳細について説明する。
ステップS15は、表示中の画像を縮小表示させるステップである。ステップS12で取得した操作が、画像を縮小させる操作であった場合、処理はステップS15に遷移する。画像を縮小させる操作とは、本実施形態では、ユーザが画像中の任意の場所をダブルタップする操作である。当該操作があった場合、表示制御部15は、所定の倍率で表示中の画像を縮小させる。なお、画像を縮小させる際の倍率は、固定値を用いてもよいし、ステップS14で拡大を行った際の倍率に基づいて決定してもよい。
ステップS16は、表示中の画像を閉じるステップである。ステップS12で取得した操作が、画像を閉じる操作であった場合、表示制御部15が、画像閲覧画面を終了させ、画像選択画面を再表示させる。
以上説明したように、本実施形態に係る画像表示装置では、画像をロードする際に第一の領域および第二の領域を設定し、ユーザによって指定された場所(座標)が各領域の内部にあるか否かによって、拡大を行う対象のオブジェクトを決定する際のロジックを変更する。このようにすることで、ユーザが拡大を所望するオブジェクトを精度良く推定することができる。すなわち、所望の拡大倍率を一回の操作で得ることができる。
(変形例)
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
例えば、実施形態の説明では、検出したオブジェクトに外接する矩形領域を第一の領域としたが、第一の領域は必ずしも矩形でなくてもよい。例えば、オブジェクトのエッジを検出し、当該エッジに沿った閉領域を設定するようにしてもよい。
また、ユーザが行う座標の指定は、タップ以外の操作によって行うようにしてもよい。
また、実施形態の説明では、対象のオブジェクトを拡大する際に、当該オブジェクトに対応する第一の領域が画面外に逸脱しない最大の倍率を決定したが、拡大を行う際の倍率は、視認性を損なわない範囲で適切に設定されればよい。例えば、最大倍率のn割としてもよい。また、第一の領域を用いず、オブジェクトの輪郭を抽出したうえで、当該輪郭が表示画面を逸脱しないような倍率を求めてもよい。
また、オブジェクトを拡大した後の中心座標は、ユーザによって指定された座標としてもよい。
また、実施形態の説明では、画像からオブジェクトを検出する例を挙げたが、メタデータなどによって、オブジェクトが存在する場所を保持することができる場合、オブジェクトの検出は行わず、当該データを用いてオブジェクトの場所を取得するようにしてもよい。
また、実施形態の説明では、静止画像を表示する例を挙げたが、本発明は、動画を表示する装置に適用することもできる。例えば、動画を再生中に、画像を拡大する操作が発生した場合、再生中のフレームに対応する画像を用いて前述した処理を行い、再生中の動画を拡大表示するようにしてもよい。
10 画像表示装置
11 画像取得部
12 入力部
13 出力部
14 オブジェクト検出部
15 表示制御部

Claims (11)

  1. 表示画面と、
    前記表示画面に画像を出力する画像出力手段と、
    前記画像に含まれる一つ以上のオブジェクトを抽出し、当該オブジェクトにそれぞれ対応する領域である第一の領域を設定する領域設定手段と、
    ユーザによって指定された、前記表示画面上の座標を取得する操作取得手段と、
    前記指定された座標に基づいて、表示中の画像を拡大表示する画像拡大手段と、
    を有し、
    前記画像拡大手段は、前記指定された座標が、前記設定された第一の領域内にある場合に、当該第一の領域に含まれるオブジェクトを拡大表示する
    ことを特徴とする、画像表示装置。
  2. 前記領域設定手段は、前記第一の領域を含む領域であって、前記第一の領域よりも広い領域である第二の領域をさらに設定し、
    前記画像拡大手段は、前記指定された座標が、前記第一の領域外であって、かつ、第二の領域内にある場合に、当該座標に対して所定の範囲内にあるオブジェクトを拡大表示する
    ことを特徴とする、請求項1に記載の画像表示装置。
  3. 前記画像拡大手段は、前記指定された座標が、前記設定された第一の領域および第二の領域のいずれにも属さない場合に、所定の倍率を用いて画像を拡大表示する
    ことを特徴とする、請求項2に記載の画像表示装置。
  4. 前記画像拡大手段は、オブジェクトを拡大表示する際に、拡大対象のオブジェクトが前記表示画面を逸脱しないような倍率を求め、当該倍率を用いて画像を拡大表示する
    ことを特徴とする、請求項1から3のいずれかに記載の画像表示装置。
  5. 前記画像拡大手段は、オブジェクトを拡大表示する際に、拡大対象のオブジェクトの中心が前記表示画面の中心となるように、拡大後の中心座標を決定する
    ことを特徴とする、請求項4に記載の画像表示装置。
  6. 前記画像拡大手段は、オブジェクトを拡大表示する際に、前記指定された座標が前記表示画面の中心となるように、拡大後の中心座標を決定する
    ことを特徴とする、請求項4に記載の画像表示装置。
  7. 前記表示画面および前記操作取得手段は、タッチパネルディスプレイによって構成される
    ことを特徴とする、請求項1から6のいずれかに記載の画像表示装置。
  8. 前記領域設定手段が抽出するオブジェクトは、人間の顔である
    ことを特徴とする、請求項1から7のいずれかに記載の画像表示装置。
  9. 表示画面を有する画像表示装置が行う画像表示方法であって、
    前記表示画面に画像を出力する画像出力ステップと、
    前記画像に含まれる一つ以上のオブジェクトを抽出し、当該オブジェクトをそれぞれ含む領域である第一の領域を設定する領域設定ステップと、
    ユーザによって指定された、前記表示画面上の座標を取得する操作取得ステップと、
    前記指定された座標に基づいて、表示中の画像を拡大表示する画像拡大ステップと、
    を含み、
    前記画像拡大ステップでは、前記指定された座標が、前記設定された第一の領域内にある場合に、当該第一の領域に対応するオブジェクトを拡大表示する
    ことを特徴とする、画像表示方法。
  10. 入力手段から入力を取得し、表示画面に画像を出力するコンピュータが実行する画像表示プログラムであって、
    前記表示画面に画像を出力する画像出力ステップと、
    前記画像に含まれる一つ以上のオブジェクトを抽出し、当該オブジェクトにそれぞれ対応する領域である第一の領域を設定する領域設定ステップと、
    前記入力手段を介して、ユーザによって指定された、前記表示画面上の座標を取得する操作取得ステップと、
    前記指定された座標に基づいて、表示中の画像を拡大表示する画像拡大ステップと、
    を含み、
    前記画像拡大ステップでは、前記指定された座標が、前記設定された第一の領域内にある場合に、当該第一の領域に対応するオブジェクトを拡大表示する
    ことを特徴とする、画像表示プログラム。
  11. 請求項10に記載の画像表示プログラムを記憶した記憶媒体。
JP2014047341A 2014-03-11 2014-03-11 画像表示装置および画像表示方法 Withdrawn JP2015170343A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014047341A JP2015170343A (ja) 2014-03-11 2014-03-11 画像表示装置および画像表示方法
KR1020150012585A KR20150106330A (ko) 2014-03-11 2015-01-27 화상 표시 장치 및 화상 표시 방법
EP15153006.0A EP2919111A1 (en) 2014-03-11 2015-01-29 Image display apparatus and image display method
CN201510050308.1A CN104915109A (zh) 2014-03-11 2015-01-30 图像显示装置以及图像显示方法
US14/613,797 US9489715B2 (en) 2014-03-11 2015-02-04 Image display apparatus and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014047341A JP2015170343A (ja) 2014-03-11 2014-03-11 画像表示装置および画像表示方法

Publications (1)

Publication Number Publication Date
JP2015170343A true JP2015170343A (ja) 2015-09-28

Family

ID=52434605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014047341A Withdrawn JP2015170343A (ja) 2014-03-11 2014-03-11 画像表示装置および画像表示方法

Country Status (5)

Country Link
US (1) US9489715B2 (ja)
EP (1) EP2919111A1 (ja)
JP (1) JP2015170343A (ja)
KR (1) KR20150106330A (ja)
CN (1) CN104915109A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018018004A (ja) * 2016-07-29 2018-02-01 カシオ計算機株式会社 表示装置、表示制御方法及びプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6000602B2 (ja) * 2012-03-30 2016-09-28 キヤノン株式会社 体検出方法及び物体検出装置
US10373290B2 (en) * 2017-06-05 2019-08-06 Sap Se Zoomable digital images
JP6873830B2 (ja) * 2017-06-05 2021-05-19 キヤノン株式会社 表示制御装置、その制御方法及びプログラム
CN109840059B (zh) * 2019-01-29 2020-05-15 北京字节跳动网络技术有限公司 用于显示图像的方法和装置
US11036375B1 (en) * 2020-02-20 2021-06-15 Lenovo (Singapore) Pte. Ltd. Dynamic zoom based on media
TWI767714B (zh) * 2021-05-19 2022-06-11 華碩電腦股份有限公司 電子裝置以及其影像擷取器的控制方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193933A (ja) 2002-12-11 2004-07-08 Canon Inc 画像拡大表示方法・装置・メディア・プログラム
JP4352980B2 (ja) * 2004-04-23 2009-10-28 オムロン株式会社 拡大表示装置及び拡大画像制御装置
JP2006178222A (ja) 2004-12-22 2006-07-06 Fuji Photo Film Co Ltd 画像表示プログラムおよび画像表示装置
US8775953B2 (en) * 2007-12-05 2014-07-08 Apple Inc. Collage display of image projects
US20100214321A1 (en) * 2009-02-24 2010-08-26 Nokia Corporation Image object detection browser
JP5326802B2 (ja) * 2009-05-19 2013-10-30 ソニー株式会社 情報処理装置、画像拡大縮小方法及びそのプログラム
JP4852652B2 (ja) * 2010-03-09 2012-01-11 パナソニック株式会社 電子ズーム装置、電子ズーム方法、及びプログラム
JP5620142B2 (ja) * 2010-04-28 2014-11-05 オリンパスイメージング株式会社 撮像装置および撮像方法
US9715751B2 (en) * 2011-07-13 2017-07-25 Apple Inc. Zooming to faces depicted in images
JP5791448B2 (ja) * 2011-09-28 2015-10-07 京セラ株式会社 カメラ装置および携帯端末
JP2013142919A (ja) 2012-01-06 2013-07-22 Sharp Corp 表示制御装置、情報端末装置、集積回路、表示制御方法、プログラム、および記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018018004A (ja) * 2016-07-29 2018-02-01 カシオ計算機株式会社 表示装置、表示制御方法及びプログラム

Also Published As

Publication number Publication date
CN104915109A (zh) 2015-09-16
EP2919111A1 (en) 2015-09-16
US20150262330A1 (en) 2015-09-17
KR20150106330A (ko) 2015-09-21
US9489715B2 (en) 2016-11-08

Similar Documents

Publication Publication Date Title
JP2015170343A (ja) 画像表示装置および画像表示方法
US9953454B1 (en) Systems and methods for displaying representative images
US10409366B2 (en) Method and apparatus for controlling display of digital content using eye movement
KR102339674B1 (ko) 디스플레이 장치 및 방법
EP2495644B1 (en) Portable information terminal comprising two adjacent display screens
KR102024422B1 (ko) 파일 폴더 내의 파일을 오픈하기 위한 방법 및 단말기
US9113080B2 (en) Method for generating thumbnail image and electronic device thereof
CN105094592B (zh) 内容显示装置、内容显示方法及程序
AU2013222958B2 (en) Method and apparatus for object size adjustment on a screen
US20140002502A1 (en) Method and apparatus for outputting graphics to a display
US20120280898A1 (en) Method, apparatus and computer program product for controlling information detail in a multi-device environment
WO2017107654A1 (zh) 一种页面入口图标的显示方法及装置
CN103513879A (zh) 触控设备及其显示控制方法及装置
WO2015004848A1 (ja) ジェスチャ入力装置
CN110574000B (zh) 显示装置
US20190095049A1 (en) Window expansion method and associated electronic device
US9767588B2 (en) Method and apparatus for image processing
JP5835240B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20170228149A1 (en) Information processing apparatus and information processing method
US20130097543A1 (en) Capture-and-paste method for electronic device
JP2020507174A (ja) 表示コンテンツのパネルをナビゲートする方法
US20170344205A1 (en) Systems and methods for displaying and navigating content in digital media
US10795537B2 (en) Display device and method therefor
US20170344204A1 (en) Systems and methods for detecting and displaying graphic contents on digital media page
EP3051795A1 (en) Image capturing device, image capturing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161213

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170814