以下に、本発明の実施形態に係る表示処理装置100について説明する。以下では、本発明の実施形態に係る表示処理装置100として、デジタル写真等を表示するデジタルフォトスタンドを例として説明しているが、これに限られず、例えばデジタルカメラやパーソナルコンピュータであってもよい。
(実施形態1)
まず、実施形態1に係る表示処理装置100の構成を図1及び図2を参照して説明する。表示処理装置100は、図1に示すように、記憶部110と、操作部120と、表示部130と、読出・書込部140と、制御部150と、を備える。
記憶部110は、制御部150が処理中に使用する又は生成したデータ(データベース等を含む)や、制御部150が読み出した画像データ等を適宜記憶する。記憶部110は、例えば、二次記憶装置111によって実現される。二次記憶装置111には、制御プログラム112、表示画像DB(データベース)113等が記録される。制御プログラム112、表示画像DB113等のプログラムやデータは、CPU(Central Processing Unit)151によって一次記憶装置152に読み出されて、CPU151によって使用、参照される。二次記憶装置111は、ハードディスク、フラッシュメモリ等の記憶装置によって構成される。
操作部120は、ユーザの操作を受け付け、受け付けた操作に応じた操作データ(操作情報)を制御部150に出力する。操作部120は、ユーザによる、表示部130に表示されている画像から切り換えられて表示される画像を特定する操作を受け付ける第1操作部120aと、ユーザによる後述する拡大領域を特定するための操作を受け付ける第2操作部120bと、を含む。第1操作部120aは、例えば、図2に示す接触式センサ123によって実現される。また、第2操作部120bは、例えば、図2に示す接触式センサ121、122によって実現される。
接触式センサ121〜123は、例えば、図3に示すように表示部130の枠の長手方向(横方向)又は短手方向(縦方向)の辺に沿って設けられた、例えば静電容量式、感圧式等のタッチセンサである。接触式センサ121〜123は、ユーザの接触式センサ121〜123に対するスライド操作における接触位置を検出するための領域であるセンシング領域121a〜123aを有する。ここで、以下の記載において、「スライド操作」とは、ユーザが自身の指等をセンシング領域121a、122a、123aに接触させた状態で移動させる操作をいうものとする。ユーザがセンシング領域121a〜123a上をスライド操作すると、接触式センサ121〜123はセンシング領域121a〜123aにおける、ユーザの指等が接触した位置を示す操作情報を出力する。接触式センサ121のセンシング領域121aは、表示部130の表示パネル132の長手方向の縁に隣接して設けられる。また、接触式センサ122のセンシング領域122aは、表示部130の表示パネル132の短手方向の縁に隣接して設けられる。また、接触式センサ123のセンシング領域123aは、表示部130の表示パネル132の長手方向の縁であって、センシング領域121aが隣接する縁と対向する縁に隣接して設けられる。
また、センシング領域121aにおける位置と、表示部130に表示される画像における、センシング領域121aの長手方向の位置と、が互いに一致するように、予めその対応関係が記憶部110に記録されているものとする。同様に、センシング領域122aにおける位置と、表示部130に表示される画像における、センシング領域122aの長手方向の位置と、が互いに一致するように、予めその対応関係が記憶部110に記録されているものとする。具体的には、例えば、図7に示すように、センシング領域121aの長手方向に沿ってX軸、センシング領域122aの長手方向に沿ってY軸、表示部130に表示されている画像における位置を表すためのx軸及びy軸が規定されているとする。このとき、センシング領域121aにおける位置X=X1は、表示部130に表示されている画像におけるx座標x=x1に対応する。また、センシング領域122aにおける位置Y=Y1は、表示部130に表示されている画像におけるy座標y=y1に対応する。
また、センシング領域123aはさらに、図7に示すように、後述する表示制御処理において特定される表示画像データの数Nに対応する特定用センシング領域A1〜ANを有する。特定用センシング領域A1〜ANは、それぞれセンシング領域123aの長手方向について略等しい長さを有している。
入力キー124は、ユーザからの押圧操作に応じたオン信号等を操作情報として出力する。入力キー124は、例えば、画像選択の終了に用いられる終了キー、表示画像の表示の開始及び停止に用いられる再生・停止キー等の1以上のキーによって構成される。
表示部130は、制御部150から出力される画像データに基づいて、画像、操作画面等を表示する。表示部130は、例えば、駆動回路131と表示パネル132とから実現される。駆動回路131は、CPU151から出力される画像データに従って表示パネル132を駆動し、表示パネル132に画像、操作画面等を表示させる。表示パネル132は、液晶パネル、有機EL(Electro Luminescence)パネル等によって構成される。
読出・書込部140は、記憶媒体40に対してデータ(例えば画像データ)を読み書きする。読出・書込部140は、例えばメディアコントローラ141によって実現される。メディアコントローラ141は、メモリーカード41に対してデータを読み書きする。
記録媒体40は、各種のデータを記憶する。記録媒体40は、デジタルカメラが撮影した撮影画像(例えば、デジタル写真)を表すデータである画像データを記録する。記録媒体40は、フラッシュメモリ等から構成されるメモリーカード41によって実現される。
制御部150は、表示処理装置100全体を制御する。制御部150は、表示画像特定部150aと、画像特定部150bと、位置特定部150cと、拡大画像生成部150dと、として機能する。
表示画像特定部150aは、記憶媒体40が記憶する複数の画像データを用いて、表示部130に出力する表示画像データを特定するものとして機能する。例えば、表示画像特定部150aは、操作部120が出力する操作情報に基づいて、記憶媒体40が記憶する複数の画像データの中から、表示部130に表示する画像(以下、表示画像という)を表す表示画像データを特定する。そして、表示画像特定部150aは、特定した表示画像データと、表示画像の表示順序とを対応付けて記憶する表示画像DB113を生成し、記憶部110に記録する。
また、表示画像特定部150aは、特定した表示画像データの数だけセンシング領域123aを分割し、複数の特定用センシング領域を規定する。そして、表示画像特定部150aは、規定された複数の特定用センシング領域のそれぞれについて、センシング領域123aにおける位置を表示順序と対応付けて表示画像DB113に記録する。
ここで、表示画像DB113は、表示順序と、表示画像データと、センシング領域123aにおける特定用センシング領域の位置と、が対応付けて記録されているものである。図6に、表示画像特定部150aがN個の表示画像データを特定した場合に生成される表示画像DB113の一例を示す。図6の「aaa1」、「aaa2」、…、「aaaN」は、それぞれ表示画像データを示す。これらの表示画像データ「aaa1」、「aaa2」、…、「aaaN」が表示部130に出力されると、各表示画像データが表す表示画像が表示部130に表示される。なお、表示画像DB113には、表示画像データそのものが記録されていなくてもよく、例えば、表示画像データのID、表示画像データの記録場所(アドレス)等によって構成されるデータであってもよい。また、図6の「Z0≦Z<Z1」、「Z1≦Z<Z2」、…、「ZN−1≦Z≦ZN」は、図7に示すようにセンシング領域123aの長手方向をZ軸として規定した場合における特定用センシング領域の位置を示す。
画像特定部150bは、第1操作部120aが受け付けているユーザによるスライド操作により、表示画像DB113に記憶された複数の表示画像データから1つの表示画像データを順次特定するものとして機能する。具体的には、画像特定部150bは、ユーザの接触式センサ123に対するスライド操作により、接触式センサ123が出力する操作情報が示す接触位置に基づいて、表示画像DB113を参照して特定用センシング領域を順次特定し、その特定した特定用センシング領域に対応する表示画像データを順次特定する。
位置特定部150cは、画像特定部150bが表示画像データを順次特定している間に、画像特定部150bが特定している表示画像データが表す表示画像において、第2操作部120bが受け付けているユーザによるスライド操作に対応する位置を順次特定するものとして機能する。具体的には、位置特定部150cは、ユーザの接触式センサ123に対するスライド操作により画像特定部150bが順次特定している表示画像について、表示部130に拡大して表示する領域である拡大領域の位置を順次特定する。例えば、位置特定部150cは、画像特定部150bが順次特定している表示画像データが表す表示画像について、ユーザの接触式センサ121、122に対するスライド操作により、接触式センサ121、122が出力する操作情報が示す接触位置に基づいて、1つの点を拡大領域の中心点として特定する。
拡大画像生成部150dは、画像特定部150bが表示画像データを順次特定している間に、画像特定部150bが特定している表示画像データが表す表示画像において、位置特定部150cが特定した位置に対応する領域を拡大した拡大画像を生成して表示部130に表示するものとして機能する。具体的には、拡大画像生成部150dは、画像特定部150bが表示画像データを順次特定している間に、画像特定部150bが特定している表示画像データが表す表示画像において、位置特定部150cが特定した拡大領域の中心点を中心として所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を拡大領域として特定する。そして特定した拡大領域内の画像を表示部130に拡大して表示するための拡大画像データを生成し、生成された拡大画像データを表示部130に出力する。
制御部150は、例えば、CPU151と、一次記憶装置152とによって実現される。CPU151は、制御プログラム112に従って表示処理装置100全体を制御し、処理を実行する。制御プログラム112は、二次記憶装置111に記録され、一次記憶装置152に読み出される。CPU151は一次記憶装置152に読み出された制御プログラム112の指令に基づいて、制御部150の上述した各機能の処理を実行する。制御部150の機能の一部は、各種専用回路(例えばデータを圧縮するエンコーダ、データを伸長するデコーダ等)によって実現されてもよい。この場合、各種専用回路がCPU151の機能の一部を担う。
一次記憶装置152は、例えばRAM(Random Access Memory)によって構成され、CPU151のワーキングメモリ等として機能する。CPU151が処理中に使用するデータ及び生成されたデータは一次記憶装置152に一次記録される。また、CPU151に入出力されるデータは一次記憶装置152に一時記録される。
次に、制御部150のCPU151が実行する表示制御処理について、図4及び図5のフローチャートを参照して説明する。表示制御処理は、例えば、ユーザが操作部120を介して表示処理装置100に対して表示制御処理を開始する旨の操作を行ったことを契機として開始する。より具体的には、例えば、操作部120が出力した表示制御処理の開始指示を示す操作情報を制御部150が受信したことを契機として開始する。
表示制御処理を開始すると、表示画像特定部150aは、記憶媒体40に記録された複数の画像データの中から、表示画像を表す表示画像データと、その表示画像データの表示順序とを特定する(ステップS11)。なお、記憶媒体40には、動画を構成する各画像データや、所定期間連写撮影された連写画像を表す画像データがそれぞれ1つのグループとして予め記録されているものとし、表示画像特定部150aは、このグループ内に各画像データを用いて前述の処理を行うものとする。表示画像特定部150aは、記憶媒体40に記録された画像データ全て、又は、記憶媒体40に記録された所定のグループ(例えば同一フォルダ内に記録された複数の画像データ)内の複数の画像データ等を用いて前述の処理を行ってもよい。
具体的には、例えば、表示画像特定部150aは、記憶媒体40に記録された画像データ全てについて、各画像データの撮影時刻を示す撮影時刻データを記録媒体40から取得する。なお、記憶媒体40には、予め、画像データと、その画像データが撮影された時刻を示す撮影時刻データが対応付けて記録されているものとする。そして取得した撮影時刻データが示す撮影時刻が古い順(つまり時系列順)を表示順序に対応させ、その撮影時刻データに対応する画像データを表示画像データとして表示画像DB113に記録する。
また、表示画像特定部150aは、ステップS11で特定した表示画像データの数だけセンシング領域123aを分割し、複数の特定用センシング領域を規定する(ステップS12)。
具体的には、表示画像特定部150aは、表示画像DB113にN個の表示画像データが記録されている場合、図7に示すように、センシング領域123aをその長手方向にN等分して特定用センシング領域A1〜ANを規定する。そして特定用センシング領域A1〜ANのセンシング領域123a上における位置(「Z0≦Z<Z1」、「Z1≦Z<Z2」、…、「ZN−1≦Z≦ZN」)を表示順序nと対応付けて表示画像DB113に記録する(図6参照)。
次に、拡大画像生成部150dは、ユーザが、ステップS11で特定された表示画像データが表す表示画像の表示部130への表示を開始する旨の操作を行ったか否かを判別する(ステップS13)。具体的には、拡大画像生成部150dは、ユーザが操作部120を操作することにより操作部120が出力した表示画像の表示開始指示を示す操作情報を受信したか否かを判別する。ユーザが表示を開始する旨の操作を行っていないと判別した場合(ステップS13;No)、拡大画像生成部150dは表示を開始する旨の操作が行われるまで待ち状態となる。
ユーザが表示を開始する旨の操作を行ったと判別した場合(ステップS13;Yes)、拡大画像生成部150dは、表示画像DB113を参照して、表示順序n=1に対応する表示画像データを表示部130に出力する(ステップS14)。
次に制御部150(特に画像特定部150b、位置特定部150c、拡大画像生成部150d)は、拡大画像生成処理を実行する(ステップS15)。拡大画像生成処理について、図5のフローチャートを参照して説明する。
まず、画像特定部150bは、接触式センサ123に対するユーザの接触操作を検出したか否かを判別する(ステップS21)。具体的には、画像特定部150bは、接触式センサ123からセンシング領域123a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。接触操作を検出していないと判別すると(ステップS21;No)、画像特定部150bは、接触操作を検出するまで待ち状態となる。
接触操作を検出したと判別した場合(ステップS21;Yes)、画像特定部150bは、その接触操作により接触式センサ123から受信した操作情報に基づいて、ユーザが接触した位置に対応する表示画像データを特定する(ステップS22)。
具体的には、画像特定部150bは、接触式センサ123から受信した操作情報が示すセンシング領域123a上における位置に基づいて、表示画像DB113を参照して特定用センシング領域A1〜ANの中から、ユーザが接触した領域である接触領域Am(1≦m≦N)を特定する。そして、表示順序n=mに対応する表示画像データを特定する。例えば、接触式センサ123から受信した操作情報が示すセンシング領域123a上における位置ZがZ2≦Z<Z3である場合、画像特定部150bは、表示画像DB113を参照して、接触領域Amとして特定用センシング領域A3(すなわちm=3)を特定する。そして、表示順序n=3に対応する表示画像データ「aaa3」を特定する(図6参照)。
次に、位置特定部150cは接触式センサ121、122に対するユーザの接触操作を検出したか否かを判別する(ステップS23)。具体的には、位置特定部150cは、接触式センサ121、122からセンシング領域121a、122a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。接触操作を検出していないと判別すると(ステップS23;No)、位置特定部150cは、ステップS21に処理を戻す。
位置特定部150cは、接触式センサ121、122に対するユーザの接触操作を検出したと判別した場合(ステップS23;Yes)、その接触操作により接触式センサ121から受信した操作情報と、接触式センサ122から受信した操作情報とに基づいて、拡大領域Bの中心点P0を特定する(ステップS24)。
具体的に拡大領域Bの中心点P0を特定する方法の一例について、図8(a)を用いて説明する。図8(a)に表示順序nに対応する表示画像データが表す表示画像I0nを示す。なお、図8(a)に示す表示画像I0nは、拡大領域Bの中心点P0を特定する方法を説明するためのものであり、実際に表示部130に表示される画像は、図8(a)の拡大領域Bの拡大画像I1n(図8(b)参照)である。図8(a)に示すように、位置特定部150cは、接触式センサ121からの操作情報が示す位置X0に対応する、表示画像I0n上におけるx軸方向の座標x0と、接触式センサ122からの操作情報が示す位置Y0に対応する、表示画像I0n上におけるy軸方向の座標y0とから規定される1つの座標点を拡大領域Bの中心点P0として特定する。
次に拡大画像生成部150dは、ステップS24で特定された中心点P0により特定される拡大領域Bの拡大画像データを生成し、生成された拡大画像データを表示部130に出力する(ステップS25)。
具体的には、拡大画像生成部150dは、ステップS24で特定された中心点P0を中心として所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を拡大領域Bとして特定する。なお、拡大領域Bの大きさは、例えば予めユーザにより設定され、記憶部110に記録されているものとする。そして、拡大画像生成部150dは、特定された拡大領域Bについて、表示部130に拡大表示するための拡大画像データを生成し、表示部130に出力する。例えば、図8(a)に示す表示画像I0n上の拡大領域Bについて生成された拡大画像データが表示部130に出力された場合、図8(b)に示す拡大画像I1nが表示部130に表示される。そして、拡大画像生成部150dは、ステップ21に処理を戻す。
そして、制御部(画像特定部150b、位置特定部150c、拡大画像生成部150d)は、ステップS21乃至25の処理を繰り返し行う。なお、制御部150は、例えばユーザが操作部120を介して表示画像の表示を終了する旨の操作を行った場合、すなわち操作部120から表示画像の表示終了指示を示す操作情報を受信した場合、表示制御処理を終了する。
次に、以上のように構成される表示処理装置100について、ユーザが予め選択した複数の画像を切り換えながら拡大表示する場合の具体的な動作を図9、10(a)〜(f)を用いて説明する。図9及び図10(a)〜(c)は、ユーザの操作による拡大領域の移動と、拡大される元の画像の切り換えを説明するための図である。また、図10(d)〜(f)は、図10(a)〜(c)において説明されるユーザの操作により表示部130に表示される拡大画像を示す図である。ここで、ユーザの操作により、動画を構成する複数の画像データが表示画像データとして、また、その表示画像データの撮影時刻の古い順が表示順序として、表示画像DB113に予め記録されているものとする。
図9に示すように、表示処理装置100は、N個の表示画像データが表す表示画像I01、I02、…、I0Nを、ユーザによるセンシング領域123aの接触操作により順次切り換えて拡大する元の画像として特定する。また、ユーザによるセンシング領域123aの接触操作と同時に行われる、センシング領域121a、122aの接触操作により、センシング領域123aの接触操作で特定された画像の拡大領域を特定し、その拡大画像を表示する。例えば、ユーザが、センシング領域121aについて位置X1から位置Xnへ、センシング領域122aについて位置Y1から位置Ynへ、センシング領域123aについて位置Z1から位置Znへ、センシング領域121a、122a、123a上におけるスライド操作を同時に行った場合について説明する。このとき、表示処理装置100は、まずセンシング領域121a、122aの接触操作により特定された表示画像I01における拡大領域B1の拡大画像を表示する。そして、センシング領域123aの接触操作により特定された表示画像について拡大領域を移動させた拡大画像を表示しながら、最終的に表示画像I0nにおける拡大領域Bnの拡大画像を表示する。
次に、図10(a)〜(f)を用いて、さらに具体的な表示処理装置100の動作を説明する。
ユーザが、例えば図10(a)に示すように左手人差し指、左手親指、右手人差し指を、それぞれセンシング領域121a、122a、123a上のXa、Ya、Zaの位置に接触させているとする。このとき、表示処理装置100は、センシング領域123a上の位置Zaに対応する表示画像データを、表示画像DB113を参照して特定する。そして、表示処理装置100は、センシング領域121a上の位置Xaと、センシング領域122a上の位置Yaにより特定される点P0aを中心とする拡大領域Baを特定する。そして、表示処理装置100は、特定した表示画像データが表す表示画像I0aにおける拡大領域Baの拡大画像データを生成し、表示部130に出力する。従って、図10(a)に示す操作により、図10(d)に示す拡大画像I1aが表示部130に表示される。
次に、ユーザが、図10(d)の拡大画像I1aの元の画像(すなわち表示画像I0a)が撮影された時刻よりも新しい表示画像について、異なる領域を拡大させて表示部130に表示させる場合の操作について説明する。この場合、ユーザは、左手人差し指、左手親指、右手人差し指を同時に、図10(b)に示すように、位置Xa、Ya、Zaから位置Xb、Yb、Zbへ、スライド操作を行う。この場合も、前述の図10(a)において示した動作と同様に、表示処理装置100は、表示画像データ及び拡大領域Bbを特定する。なお、ユーザは、センシング領域123aを右方向(Z軸の正方向)にスライド操作することにより表示画像データを特定している。これは、前述したように、複数の表示画像データが、その撮影時刻の古い順を表示順序として表示画像DB113に記録されているためである。従って、センシング領域123a上の接触位置に対応する表示順序が高くなる方向、すなわちZ軸の正方向にスライド操作することで、撮影時刻が新しい表示画像データを特定することができる。そして、表示処理装置100は、特定された表示画像データが表す表示画像I0bにおける、特定された拡大領域Bbの拡大画像データを生成し、表示部130に出力する。従って、図10(b)に示す操作により、図10(e)に示す拡大画像I1bが表示部130に表示される。
次に、ユーザが、図10(e)の拡大画像I1bの元の画像(すなわち表示画像I0b)が撮影された時刻よりも古い表示画像について、異なる領域を拡大させて表示部130に表示させる場合の操作について説明する。この場合、ユーザは、左手人差し指、左手親指、右手人差し指を同時に、図10(c)に示すように、位置Xb、Yb、Zbから位置Xc、Yc、Zcへ、移動させてスライド操作を行う。この場合も、前述の図10(b)において示した動作と同様に、表示処理装置100は、表示画像データ及び拡大領域Bbを特定する。なお、ユーザは、センシング領域123aを左方向(Z軸の負方向)にスライド操作することにより、撮影時刻が古い表示画像データを特定している。そして、表示処理装置100は、特定された表示画像データが表す表示画像I0cにおける、特定された拡大領域Bcの拡大画像データを生成し、表示部130に出力する。従って、図10(c)に示す操作により、図10(f)に示す拡大画像I1cが表示部130に表示される。
以上のように、実施形態1に係る表示処理装置100において、ユーザは複数の画像を切り換えながら、同時に切り換えられた画像上の任意の領域における拡大画像を表示部130に表示させることができる。また、表示部130に表示される拡大画像の拡大領域を移動させながら、同時に複数の画像を切り換えることができる。例えば、上述の実施形態1において、ユーザは接触式センサ121、122を接触操作することにより拡大領域を指定すると同時に、接触式センサ123を接触操作することで、任意の撮影時刻における拡大しようとする表示画像を切り換えながら、指定した拡大領域について拡大画像を表示部130に表示させることができる。また、ユーザは接触式センサ123を接触操作することにより拡大しようとする表示画像を指定すると同時に、接触式センサ121、122を接触操作することで、指定した拡大しようとする表示画像において拡大領域を移動させながら拡大画像を表示部130に表示させることができる。さらに、ユーザは、接触式センサ121、122、123を同時にスライド操作することにより、表示部130に表示される拡大画像の拡大領域、及び拡大される元の表示画像を同時に連続的に変化させることができる。このように、表示処理装置100は、ユーザの操作に応じて変化に富んだ画像を表示することができ、ユーザに新しい印象を与えることができる。
(実施形態2)
次に、本発明の実施形態2に係る表示処理装置100について説明する。実施形態2に係る表示処理装置100は、ユーザの操作により特定された拡大領域がユーザによる操作終了後に等速度で移動する点において、実施形態1に係る表示処理装置100と異なる。以下に、実施形態2に係る表示処理装置100について、実施形態1に係る表示処理装置と異なる点について詳細に説明する。なお、実施形態1と同様の構成要素については、同様の符号を用い、その詳細な説明は省略する。
まず、実施形態2に係る表示処理装置100の構成を図11及び図12を参照して説明する。表示処理装置100は、図11に示すように、記憶部110と、操作部120と、表示部130と、読出・書込部140と、制御部150と、を備える。
記憶部110は、実施形態1に係る表示処理装置と同様に、二次記憶装置111によって実現されるが、表示画像DB113が二次記憶装置111に記録されていない点で異なる。また、操作部120は、実施形態1に係る表示処理装置100と同様に、ユーザによる後述する拡大領域を特定するための操作を受け付ける第2操作部120bを含むが、第1操作部120aを含まない点で異なる。また、第2操作部120bは、実施形態1に係る表示処理装置100と同様に、接触式センサ121、122によって実現される。
制御部150は、実施形態1に係る表示処理装置100と同様に、位置特定部150e、拡大画像生成部150dとして機能するが、表示画像特定部150a、画像特定部150bとしては機能しない点で異なる。さらに実施形態2に係る位置特定部150eは、実施形態1に係る位置特定部150bと同様に、表示部130に拡大して表示する領域である拡大領域の位置を特定する。しかし、位置特定部150eは、ユーザの操作により特定された拡大領域の位置を、ユーザによる操作終了後に等速度で移動させる点で、位置特定部150cと異なる。以下に、位置特定部150eについて詳細に説明する。
位置特定部150eは、表示部130に表示されている画像について、第2操作部120bが出力する操作情報に基づいて、1つの点を拡大領域の中心点として特定する。そして、拡大画像生成部150dは、位置特定部150eが特定した中心点を中心として所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を拡大領域として特定する。そして拡大画像生成部150dは、特定した拡大領域における拡大画像データを生成し、表示部130に出力する。
また、位置特定部150eは、第2操作部120bが出力する操作情報に基づいて、ユーザによる第2操作部120bの操作が終了したか否かを判別する。そして、操作が終了したと判別した場合に、操作終了直前の操作速度で、拡大領域を等速度運動させた場合の拡大領域の中心点を特定する。
次に、制御部150のCPU151が実行する拡大画像生成処理について、図13のフローチャートを参照して説明する。拡大画像生成処理は、例えば、ユーザが操作部120を介して表示処理装置100に対して、表示部130に表示されている画像の拡大画像生成処理を開始する旨の操作を行ったことを契機として開始する。具体的には、例えば、操作部120が出力した、表示部130に表示されている画像拡大画像生成処理の開始指示を示す操作情報を制御部150が受信したことを契機として開始する。
まず、拡大画像生成部150dは、表示部130に表示されている画像について、初期拡大画像データを生成し、生成された初期拡大画像データを表示部130に出力する(ステップS31)。具体的には、図8(a)に示すように、拡大画像生成部150dは、表示部130に表示されている画像について、その画像の所定の点(例えば中心点)を中心点P0として所定の大きさ(例えば、横320ピクセル、縦240ピクセルの矩形領域)の領域を拡大領域Bとする拡大画像を表す拡大画像データを生成する。そして、生成された拡大画像データを初期拡大画像データとして表示部130に出力する。また、拡大画像生成部150dは、元の画像(拡大前の画像)における拡大領域Bの中心点P0のx座標、y座標を一次記憶装置152に記録するとともに、x軸方向移動速度、y軸方向移動速度として初期値0を記録する。
次に、位置特定部150eは、接触式センサ121に対するユーザの接触操作を検出したか否かを判別する(ステップS32)。具体的には、位置特定部150eは、接触式センサ121からセンシング領域121a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。
接触式センサ121に対するユーザの接触操作を検出したと判別した場合(ステップS32;Yes)、位置特定部150eは、その接触操作により接触式センサ121から受信した操作情報が示す接触位置に基づいて、表示部130に表示されている拡大画像の元の画像(拡大前の画像)における拡大領域Bの中心点P0のx座標を特定する(ステップS33)。そして、位置特定部150eは、特定したx座標を一次記憶装置152に記録する。なお、接触式センサ121から受信した操作情報に基づいて、拡大領域Bの中心点のx座標を求める具体的な方法は、実施形態1と同様である。
接触式センサ121に対するユーザの接触操作を検出していないと判別した場合(ステップS32;No)、位置特定部150eは、直近の過去所定時間内に接触式センサ121に対するユーザの接触操作を検出したか否かを判別する(ステップS34)。具体的には、例えば、直近の過去所定時間内(例えば、100msec内)に接触式センサ121から操作情報を受信したか否かを判別する。直近の過去所定時間内に接触式センサ121に対するユーザの接触操作を検出していないと判別した場合(ステップS34;No)、位置特定部150eは、ステップS36に処理を進める。
直近の過去所定時間内に接触式センサ121に対するユーザの接触操作を検出したと判別した場合(ステップS34;Yes)、位置特定部150eは、直近の過去所定時間内に受信した操作情報に基づいて、表示部130に表示されている拡大画像の元の画像における拡大領域Bの中心点P0のx軸方向の移動速度を算出する(ステップS35)。具体的には、直近の過去所定時間内(例えば、100msec内)に受信した複数の操作情報が示すセンシング領域121aにおける位置について、対応する表示部130に表示されている拡大画像の元の画像上における位置、すなわち中心点P0のx座標を特定し、直近の過去所定時間内における移動距離を算出する。そして、算出された移動距離と、直近の過去所定時間とから、ユーザによる接触操作終了直前の中心点のx軸方向移動速度を算出する。また、位置特定部150eは、算出したx軸方向移動速度を一次記憶装置152に記録する。
次に、位置特定部150eは、一次記憶装置152に記録されたx軸方向移動速度から、中心点P0の移動後のx座標を特定する(ステップS36)。具体的には、位置特定部150eは、一次記憶装置152に記録されたx軸方向移動速度と中心点P0のx座標とに基づいて、中心点P0が一次記憶装置152に記録されたx軸方向移動速度で等速度運動した場合のx座標を算出する。そして、位置特定部150eは、算出したx座標を一次記憶装置152に記録する。
位置特定部150eは、接触式センサ122に対するユーザの接触操作を検出したか否かを判別する(ステップS37)。具体的には、位置特定部150eは、接触式センサ122からセンシング領域122a上でユーザが接触操作した位置を示す操作情報を受信したか否かを判別する。
接触式センサ122に対するユーザの接触操作を検出したと判別した場合(ステップS37;Yes)、位置特定部150eは、その接触操作により接触式センサ122から受信した操作情報が示す接触位置に基づいて、表示部130に表示されている拡大画像の元の画像における拡大領域Bの中心点P0のy座標を特定する(ステップS38)。そして、位置特定部150eは、特定したy座標を一次記憶装置152に記録する。なお、接触式センサ122から受信した操作情報に基づいて、拡大領域Bの中心点のy座標を求める具体的な方法は、実施形態1と同様である。
接触式センサ122に対するユーザの接触操作を検出していないと判別した場合(ステップS37;No)、位置特定部150eは、直近の過去所定時間内に接触式センサ122に対するユーザの接触操作を検出したか否かを判別する(ステップS39)。具体的には、例えば、直近の過去所定時間内(例えば、100msec内)に接触式センサ122から操作情報を受信したか否かを判別する。直近の過去所定時間内に接触式センサ122に対するユーザの接触操作を検出していないと判別した場合(ステップS39;No)、位置特定部150eは、ステップS41に処理を進める。
直近の過去所定時間内に接触式センサ122に対するユーザの接触操作を検出したと判別した場合(ステップS39;Yes)、位置特定部150eは、直近の過去所定時間内に受信した操作情報に基づいて、表示部130に表示されている拡大画像の元の画像における拡大領域Bの中心点P0のy軸方向の移動速度を算出する(ステップS40)。具体的には、直近の過去所定時間内(例えば、100msec内)に受信した複数の操作情報が示すセンシング領域122aにおける位置について、対応する表示部130に表示されている拡大画像の元の画像上における位置、すなわち中心点P0のy座標を特定し、直近の過去所定時間内における移動距離を算出する。そして、算出された移動距離と、直近の過去所定時間とから、ユーザによる接触操作終了直前の中心点のy軸方向移動速度を算出する。また、位置特定部150eは、算出したy軸方向移動速度を一次記憶装置152に記録する。
次に、位置特定部150eは、一次記憶装置152に記録されたy軸方向移動速度から、中心点P0の移動後のy座標を特定する(ステップS41)。具体的には、位置特定部150eは、一次記憶装置152に記録されたy軸方向移動速度と中心点P0のy座標とに基づいて、中心点P0が一次記憶装置152に記録されたy軸方向移動速度で等速度運動した場合のy座標を算出する。そして、位置特定部150eは、算出したy座標を一次記憶装置152に記録する。
次に、拡大画像生成部150dは、一次記憶装置152に記録された拡大領域Bの中心点P0のx座標、y座標に基づいて、拡大画像データを生成し、生成された拡大画像データを表示部130に出力する(ステップS42)。具体的には、拡大画像生成部150dは、一次記憶装置152に記録された拡大領域Bの中心点P0のx座標、y座標を中心とする所定の大きさを有する領域(例えば、横320ピクセル、縦240ピクセルの矩形領域)を新たな拡大領域Bとして特定する。そして拡大画像生成部150dは、特定した拡大領域Bにおける拡大画像データを生成し、表示部130に出力する。そして、拡大画像生成部150dは、ステップ32に処理を戻す。
そして、制御部150(位置特定部150e、拡大画像生成部150d)は、ステップS32乃至42の処理を繰り返し行う。なお、制御部150は、例えばユーザが操作部120を介して表示画像の表示を終了する旨の操作を行った場合、すなわち操作部120から表示画像の表示終了指示を示す操作情報を受信した場合、表示制御処理を終了する。
次に、以上のように構成される構成表示処理装置100について、ユーザが表示部130に表示されている拡大画像について拡大領域の移動させる場合の具体的な動作を図14(a)及び(b)を用いて説明する。なお、図14(a)及び(b)は、拡大領域の移動を説明するための図であり、実際には拡大領域における拡大画像が表示部130に表示される。
ユーザは拡大したい領域を移動させたい場合、移動させたい方向及び距離に応じて接触式センサ121、122のセンシング領域121a、122a上をスライド操作する。この操作に応じて、拡大領域の中心点が移動するため、拡大領域を移動させることができる。例えば、図14(a)に示すように、センシング領域121aのX1の位置にユーザの指があった場合に、ユーザがX2に向かってセンシング領域121a上をスライド操作すると、その拡大領域B1は、拡大領域B2の位置に移動する。従って、表示部130に表示される拡大画像も、拡大領域B1から拡大領域B2への移動にともなって変化する。また、ユーザが指をセンシング領域121aのX1からX2の位置に移動させてスライド操作した後、センシング領域121aから指を離した場合、拡大領域は、拡大領域B2の位置における移動速度を維持した状態で矢印b3の方向に移動する。また、拡大領域が矢印b3の方向に移動している状態で、図14(b)に示すように、センシング領域122aのY4の位置からY5の位置に移動させてスライド操作すると、拡大領域は、拡大領域B4の位置から拡大領域B5の位置に斜めに移動する。これは、x軸方向の移動速度が維持されているからである。そしてさらにセンシング領域122aのY5の位置で指を離した場合、拡大領域は、拡大領域B5の位置における移動速度を維持した状態で矢印b6の方向に移動する。また、拡大領域の移動を止めたい場合には、ユーザが接触式センサ121、122のセンシング領域121a、122a上をスライド操作せずに指を停止した状態にすることで、拡大領域の移動は停止する。
以上のように、実施形態2に係る表示処理装置100において、ユーザは表示部130に表示されている拡大画像の拡大領域を選択する操作において、表示部130の枠に沿って設けられた2つの接触式センサ121、122により、任意の位置を拡大領域として選択することができる。また、接触式センサ121、122からユーザが指を離すと、その直前までの操作に応じた速度で拡大領域が等速度で移動する。従って、ユーザは、変化に富んだ拡大領域の移動操作が可能であり、ユーザに新しい印象を与えることができる。
なお、本発明は、上記の実施形態に限定されず、種々の変形及び応用が可能である。例えば、上記の実施形態では、接触式センサ121、122として1次元の位置情報を検出する2つのタッチセンサを用いているが、これに限られない。例えば、表示パネル132の上に配置される透明なタッチパネル式センサを用いることで、2次元の位置情報を取得してもよい。この場合、ユーザが接触した位置に対応する表示画像上の座標を拡大領域Bの中心点P0として特定すればよい。また、表示パネル132の縁に沿って設けられるタッチセンサは2つに限られず、表示パネル132の縁に沿って3つ以上のタッチセンサが設けられてもよい。
また、実施形態1では、表示画像を切り換える操作を受け付けるための第1操作部120aである接触式センサ123を表示パネル132の長手方向の縁に沿って設けたが、設ける場所はこれに限られない。例えば、表示パネル132の短手方向の縁や、表示部130の枠の側面に設けてもよい。また、上記の実施形態では、第1操作部120aの一例として接触式センサ123を用いる例を示したが、これに限られない。例えば、第1操作部120aは、ボタンや十字キーといったハードキーから構成されてもよい。
また、実施形態1に係る表示処理装置100が、実施形態2に係る表示処理装置のように、拡大領域がユーザの操作後に等速度で移動してもよい。すなわち、実施形態1に係る位置特定部150cが、さらに実施形態2に係る位置特定部150eとして機能してもよい。具体的には、実施形態1に係る位置特定部150cは、図5のステップS23、24に代えて、実施形態2に係る位置特定部150eが行う図13のステップS32〜41に示す処理をすればよい。このような処理を行うことにより、位置特定部150cは、接触式センサ121、122に対するユーザの接触操作に基づいて、操作速度を算出する。そして、位置特定部150cは、接触式センサ121、122に対するユーザの接触操作終了後に、接触式センサ123に対するユーザの接触操作に基づいて特定された表示画像データが表す表示画像における拡大領域を算出された移動速度で等速度運動させた場合の、移動後の拡大領域の位置を特定する。そして拡大画像生成部150dは、移動後の拡大領域における拡大画像データを生成し、表示部130に出力する。
なお、この発明の実施の形態にかかる表示処理装置100は、専用の装置によらず、通常のコンピュータシステムを用いて実現可能である。例えば、ネットワークカード等を備えたコンピュータに上述の処理を実行するためのプログラムを格納した媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)から当該プログラムをインストールすることにより、上述の処理を実行する表示処理装置を構成することができる。
また、コンピュータにプログラムを供給するための手法は任意である。例えば、通信回線、通信ネットワーク、通信システム等を介して供給してもよい。一例を挙げると、通信ネットワークの掲示板(BBS)に当該プログラムを掲示し、これをネットワークを介して搬送波に重畳して配信することにより、上述の処理を実行することができる。