JP2004157869A - Mobile terminal - Google Patents

Mobile terminal Download PDF

Info

Publication number
JP2004157869A
JP2004157869A JP2002324228A JP2002324228A JP2004157869A JP 2004157869 A JP2004157869 A JP 2004157869A JP 2002324228 A JP2002324228 A JP 2002324228A JP 2002324228 A JP2002324228 A JP 2002324228A JP 2004157869 A JP2004157869 A JP 2004157869A
Authority
JP
Japan
Prior art keywords
zoom
input
display
frame
zoom frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002324228A
Other languages
Japanese (ja)
Inventor
Takeshi Yoshida
武志 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002324228A priority Critical patent/JP2004157869A/en
Publication of JP2004157869A publication Critical patent/JP2004157869A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobil terminal improving usability in display screen zooming. <P>SOLUTION: A zoom frame 209 is displayed (b) when a command icon 202 is operated to display and instruct a zoom frame by the user in a state where an image is displayed on the display screen (a). Then, when zoom in is instructed after the position and the size of the zoom frame 209 is instructed, the image in the zoom frame 209 is magnified and displayed according to the size of the zoom frame 209 (c). When zoom out is instructed, the image in the zoom frame 209 is reduced and displayed (d) according to the size of the zoom frame 209. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、表示画面の一部領域をズーム可能な携帯端末に関する。
【0002】
【従来の技術】
従来、携帯端末は表示画面が小さいため、表示画面の一部領域の情報を得るためにその一部領域をズーム可能に構成されている。
【0003】
【発明が解決しようとする課題】
しかし、上記従来の携帯端末では、表示画面をズームする操作は複雑であり、また、携帯端末の大きさが小さいために、任意に指定した表示画面領域のズームを容易に行えないので、ユーザにとっては使い勝手が悪かった。
【0004】
本発明は、この点に着目してなされたものであり、表示画面のズームに関するユーザの使い勝手を向上させることができる携帯端末を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するため、請求項1に記載の携帯端末は、画像を表示するとともに、該画像上にズーム領域を表示する表示手段と、前記ズーム領域の位置および大きさを指示する指示手段と、前記ズーム領域が、前記指示手段によって指示された位置および大きさになるように、前記表示手段を制御する制御手段と、該制御手段によって制御されたズーム領域に基づいて、該ズーム領域内の画像をズームするズーム手段とを有することを特徴とする。
【0006】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて詳細に説明する。
【0007】
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る携帯端末の概略構成を示すブロック図である。
【0008】
同図において、CPU(中央演算処理)1は、本携帯端末全体の制御を司る。CPU1には、制御プログラムを記憶しているROM(リードオンリーメモリ)2、RAM(ランダムアクセスメモリ)3、データ格納部4、LCD(Liquid Crystal Display)コントロール部11およびタブレットコントロール部9がそれぞれ接続されている。
【0009】
LCDコントロール部11には、表示駆動部12を介して、例えばカラー液晶からなる表示部13が接続されている。
【0010】
タブレットコントロール部9には、表示部13上に表示された画像に対するユーザの操作を検出するための手書きタブレット10が接続されている。
【0011】
CPU1は、ROM2内の制御プログラムに基づいて各種制御を行う。これらの制御の中には、RAM3からLCDコントロール部11へデータをDMA(Direct Memory Access)転送する処理、また、画像データをJPEG(Joint Photographic Experts Group)圧縮し、ファイル形式でデータ格納部4へ格納する処理などが含まれる。
【0012】
RAM3は、画像展開エリア3a、ワークエリア3b、VRAM3cおよび一時退避エリア3dを備えている。画像展開エリア3aは、データ格納部4から読み出されたJPEG圧縮画像データを一時的に格納するためのテンポラリバッファとして、また、画像圧縮処理や解凍処理のための画像専用ワークエリアとして使用される。ワークエリア3bは、制御プログラムを含む各種アプリケーションプログラムのためのワークエリアである。VRAM3cは、表示部13へ表示する表示データを格納するVRAM(Video RAM)として使用される。また、一時退避エリア3dは、各種データを一時退避させるためのエリアである。
【0013】
データ格納部4は、CPU1によりJPEG圧縮された撮影画像データ、あるいはアプリケーションプログラムによって参照される各種付属データ等をファイル形式で格納しておくためのメモリであり、本実施の形態ではフラッシュメモリで構成される。
【0014】
LCDコントロール部11は、データ格納部4中の画像ファイルに対してJPEG解凍を行って生成したYUVデジタル画像データを受け取り、RGBデジタル信号へ変換した後、表示駆動部12へ出力する処理を行う。
【0015】
表示駆動部12は、表示部13を駆動するための制御を行う。
【0016】
表示部13は、画像を表示するための表示器である。
【0017】
操作SW(スイッチ)群19は、本携帯端末に格納されたアプリケーションプログラムの実行を指示したり、画面移動等のコマンドを指示したりするためのスイッチである。
【0018】
ブザー20は、本携帯端末のコマンドの実行状況音あるいは警告音をユーザに知らせるためのものであり、CPU1からの信号により音声出力を行う。
【0019】
図2は、本実施の形態の携帯端末の外観構成を示す図である。
【0020】
同図に示すように、本体101の上面には、表示部13とともに、複数の操作キー104〜112(図1の操作SW群19に相当)が設けられている。ここで、キー105〜108は、それぞれ、上/下/左/右の各方向を指示する方向キーであり、キー109〜112は、コマンドの実行を指示するキーである。
【0021】
以下、以上のように構成された携帯端末が実行する画面ズーム処理を、図3〜図5のフローチャートおよび図6の表示例に基づいて説明する。
【0022】
図3は、本実施の形態の携帯端末の画面上に、ズームを補助するためのズーム枠を表示させる処理の手順を示すフローチャートである。
【0023】
同図において、まず、ステップS1で、本携帯端末上にてユーザが画像表示や地図表示等のアプリケーションを実行すると、ステップS2では、図6(a)に示すような画像を表示部13に表示する。
【0024】
次に、ステップS3では、ユーザが、操作SW群19の入力操作を行ったか、または携帯端末上の表示部13に表示されるコマンドアイコン202〜206の入力操作を手書きタブレット10により行ったかを判定し、ユーザによる入力操作が検出されるまで待機する。
【0025】
ステップS3で、入力操作が検知されると、ステップS4に進み、入力検出した操作内容がズーム枠の表示を行う指示、つまり図6(a)のボタン202の操作であるかどうかを判定し、ズーム枠の表示が指示されている場合には、図4のステップS21で、図6(b)に示すように、ズーム枠209を表示する。
【0026】
一方、ステップS4で、ズーム枠の表示が指示されていない場合には、ステップS5に進み、直前に行われ、取り消された操作を再度実行するREDOコマンドの指示入力であるかどうかの判定を行う。このとき、REDOコマンドを指示する入力が行われた場合には、ステップS6に進み、図4のステップS28の直前に実行した操作を取り消すUNDO処理により、図6(b)のズーム枠209を表示させていた画面から図6(a)のズーム枠のない画面表示に戻って来ているかどうかを調べ、UNDO処理を実行して図6(a)の画面表示になっている場合は、ステップS7に進んで、REDO処理を行い、ズーム枠209を再度表示させ、図6(b)の表示を行う。
【0027】
一方、ステップS6で、ステップS28のUNDO処理が行われていない場合は、ステップS3の入力検出に戻る。
【0028】
ステップS5で、REDOコマンドの指示入力ではない場合は、ステップS8に進み、UNDOコマンドの指示入力であるかどうかの判定を行う。このとき、UNDOコマンドを指示する入力が行われた場合には、ステップS9に進み、現在の画面表示が、図6(c)または図6(d)の表示のように、ズーム処理によるズーム表示画面であるかを判定し、ズーム表示画面であれば、ステップS10に進んで、UNDO処理を行い、図6(b)に示す表示に戻った後、図5のステップS41に進み、ズーム枠209の大きさを設定変更する処理へ移行する。
【0029】
一方、ステップS9で、現在の画面表示がズーム表示画面ではない場合には、ステップS3の入力検出に戻る。
【0030】
一方、ステップS8で、UNDOコマンドの指示入力でない場合には、ステップS11に進み、ズーム設定変更の指示入力であるかどうかの判定を行う。ズーム設定変更とは、例えば、ズーム枠209の幅設定等を変更することをいう。
【0031】
ステップS11で、ズーム設定変更を指示する入力がなされた場合には、ステップS12に進み、ユーザの指示に応じてズーム設定を変更した後、ステップS3の入力検出に戻る。
【0032】
一方、ステップS11で、ズーム設定変更を指示する入力がなされていない場合、つまり上述していない入力が検出された場合には、何もせずに、ステップS3の入力検出に戻る。
【0033】
図4は、ズーム枠209が表示されてから、ズームの中心位置を確定し、ズーム枠を確定するまでの処理の手順を示すフローチャートである。
【0034】
まず、ステップS21では、図6(b)のように、ズーム枠209を表示する。
【0035】
次に、ステップS22では、ユーザが、操作SW群19の入力操作を行ったか、または携帯端末上の表示部13に表示されるコマンドアイコン202〜206の入力操作を手書きタブレット10により行ったかを判定し、ユーザによる入力操作が検出されるまで待機する。
【0036】
ステップS22で、入力操作が検知されると、ステップS23に進み、入力検出した操作内容がズーム枠209の位置を決定する指示であるかどうかを判定し、ズーム枠209の位置を決定する指示がなされている場合には、図5のステップS41に進み、ズーム枠209の位置を確定する。
【0037】
一方、ステップS23で、ズーム枠209の位置を決定する指示がなされていない場合には、ステップS24に進み、前記REDOコマンドの指示入力であるかどうかの判定を行う。このとき、REDOコマンドを指示する入力が行われた場合には、ステップS25に進み、図5のステップS51のUNDO処理から、このステップS25に戻って来ているかどうかを調べ、ステップS51から戻って来ている場合には、ステップS26に進んで、REDO処理を行い、ズーム枠209を再度確定する。
【0038】
一方、ステップS25で、ステップS51から戻って来ていない場合には、ステップS22の入力検出に戻る。
【0039】
一方、ステップS24で、REDOコマンドの指示入力ではない場合には、ステップS27に進み、前記UNDOコマンドの指示入力であるかどうかの判定を行う。このとき、UNDOコマンドを指示する入力が行われた場合には、ステップS28に進み、図6(b)に示されるズーム枠209の表示を消す等のUNDO処理を行って、図6(a)に示す表示を行った後、前記図3のステップS2へ戻る。
【0040】
一方、ステップS27で、UNDOコマンドの指示入力ではない場合には、ステップS29に進み、ズーム枠移動の指示入力であるかどうかの判定を行う。このとき、ズーム枠移動を指示する入力が行われた場合には、ステップS30に進み、ユーザが操作SW群19または手書きタブレット10によりズーム枠209の位置を動かすと、それに応じてズーム枠を移動させる。
【0041】
一方、ステップS29で、ズーム枠移動を指示する入力ではない場合には、ステップS31に進み、ズーム設定変更の指示入力であるかどうかの判定を行う。このとき、ズーム設定変更を指示する入力が行われた場合には、ステップS32に進み、ユーザの指示に応じてズーム設定を変更した後、ステップS22の入力検出に戻る。
【0042】
一方、ステップS31で、ズーム設定変更を指示する入力がなされていない場合、つまり上述していない入力が検出された場合には、何もせずに、ステップS22の入力検出に戻る。
【0043】
図5は、ズーム枠209の位置が確定されてから、実際にズームを行うまでの処理の手順を示すフローチャートである。
【0044】
まず、ステップS41では、ズーム枠209の位置を確定する。
【0045】
次に、ステップS42では、ユーザが、操作SW群19の入力操作を行ったか、または携帯端末上の表示部13に表示されるコマンドアイコン202〜206の入力操作を手書きタブレット10により行ったかを判定し、ユーザによる入力操作が検出されるまで待機する。
【0046】
ステップS42で、入力操作が検知されると、ステップS43に進み、入力検出した操作内容がズーム枠209の大きさを決定する指示、つまりズームの倍率を決定する指示であるかどうかを判定する。このとき、ズーム枠209の大きさを決定する入力指示を行った場合には、ステップS44に進み、画面をズームインするかズームアウトするかの判定を行い、画面をズームインする場合には、ステップS45に進み、画面ズームイン処理を行い、図6(b)に示す表示からズーム枠209を消去し、図6(c)に示すように、表示画面をズームインした表示を行い、ズームイン表示を完了する。
【0047】
一方、ステップS44で、画面をズームアウトする場合には、ステップS46に進み、画面ズームアウト処理を行い、図6(b)に示す表示からズーム枠209を消去し、図6(d)に示すように、表示画面をズームアウトした表示を行い、ズームアウト表示を完了する。
【0048】
一方、ステップS43で、ズーム枠209の大きさを決定する入力指示を行わない場合には、ステップS47に進み、前記REDOコマンドの指示入力であるかどうかの判定を行う。このとき、REDOコマンドを指示する入力が行われた場合には、ステップS48に進み、前記図3のステップS10のUNDO処理により、ズームインした図6(c)の表示またはズームアウトした図6(d)の表示からズーム枠209を表示し、ズーム枠209の位置が固定されている、ズームを行う直前の図6(b)に示される表示に戻って来ているかどうかを調べ、ステップS10のUNDO処理が行われている場合には、ステップS49に進んで、REDO処理を行い、ズームインまたはズームアウト処理を再度実行し、図6(b)の表示からズーム枠209を消去して、ズームを行い、図6(c)または図6(d)に示される表示を行う。
【0049】
一方、ステップS10のUNDO処理が行われていない場合には、ステップS42の入力検出に戻る。
【0050】
一方、ステップS47で、REDOコマンドの指示入力ではない場合には、ステップS50に進み、UNDOコマンドの指示入力であるかどうかの判定を行う。このとき、UNDOコマンドを指示する入力が行われた場合には、ステップS51に進み、位置が確定され、移動することのできなかったズーム枠209を移動可能にするUNDO処理を行い、図4のステップS21へ移行する。
【0051】
一方、ステップS50で、UNDOコマンドの指示入力ではない場合には、ステップS52に進み、ズーム枠209の大きさを変更する指示入力であるかどうかの判定を行う。このとき、ズーム枠209の大きさを変更する指示入力が行われた場合には、ステップS53に進み、ユーザが操作SW群19または手書きタブレット10を用いてズーム枠209を動かすと、これに応じてズーム枠209の大きさを変更する。
【0052】
一方、ステップS52で、ズーム枠209の大きさを変更する指示入力ではない場合には、ステップS54に進み、ズーム設定変更の指示入力であるかどうかの判定を行う。このとき、ズーム設定変更を指示する入力が行われた場合には、ステップS55に進み、ユーザの指示に応じてズーム設定を変更した後、ステップS42の入力検出に戻る。
【0053】
一方、ステップS54で、ズーム設定変更を指示する入力が行われていない場合、つまり上述していない入力検出の場合には、何もせずに、ステップS42の入力検出に戻る。
【0054】
以上説明したように、本実施例の形態では、表示された画面を倍率指定によらず補助のズーム枠を用いることで、視覚的にズームを行えるようにしたので、ズーム操作の失敗を減少させることができる。
【0055】
また、ズーム操作を失敗したとしても、UNDO,REDOコマンド等により短時間で画面の拡大/縮小の倍率を変更するようにしたので、使い勝手を向上させることができる。
【0056】
(第2の実施の形態)
上記第1の実施の形態では、ズームを行う際にズーム補助のためのズーム枠を表示し、そのズーム枠の大きさを自由に変更して倍率を設定した後、ズームを行い、画像をズームさせている。本実施の形態では、ズームの等倍/変倍変更設定、およびズーム倍率に合わせた情報をズーム枠に付記することで、そのズーム枠の使い方を容易にして、ズーム操作をさらに簡単にするようにしたものである。
【0057】
なお、本実施の形態におけるハードウェアの構成は、上記第1の実施の形態のものを用いている。
【0058】
本実施の形態のズーム処理は、上記第1の実施の形態のズーム処理(図3〜図5)中、図5のステップS53の処理のみを、図7のフローチャートに示す処理に変更することで実現している。この変更後の処理手順を、図7のフローチャートおよび図8(a),(b)、図9の表示例を用いて説明する。
【0059】
図7のステップS52(図5のステップS52と同じ)で、ズーム枠の大きさを変更する指示入力が行われた場合には、ステップS61に進み、ズームを行う画像が等倍ズームであるかどうかを判定する。等倍ズームとは、ズームする画像の縦/横のズーム倍率が等倍であることを意味する。また、等倍ズームの選択は、随時設けてあるズーム設定変更処理(ステップS12,S32,S55)によって行う。
【0060】
ステップS61で、等倍ズームのときには、ステップS62に進み、図8(a)に示すように、カーソル303を用いてズーム枠の大きさを変更すると、点302を中心としてズーム枠301Aからズーム枠304Aに縦・横のズーム枠の大きさを連動させて変更する。
【0061】
一方、ステップS61で、等倍ズーム設定でない場合には、ステップS67に進み、変倍ズームを行う。変倍ズームとは、ズームする画像の縦/横のズーム倍率が異なる倍率であることを意味する。
【0062】
ステップS67では、入力検出した動作SW群19または手書きタブレット10の方向が縦方向であるかどうかを判定する。このとき、縦方向である場合には、ステップS68に進み、図8(b)に示すように、枠移動時の点302を中心として、ズーム枠301Bからズーム枠304Bに、縦方向にズーム枠の大きさを変更する。
【0063】
一方、ステップS67で、入力検出が縦方向でない、つまり横方向の場合には、ステップS69に進み、横方向にズーム枠の大きさを変更する。
【0064】
ズーム枠の大きさを変更する、ステップS62,S68,S69の処理後、ステップS63に進み、ズーム倍率に応じてズーム枠の幅を変更するかどうかの判定を行う。なお、ズーム枠の幅を変更するかどうかの選択は、随時設けてあるズーム設定変更処理(ステップS12,S32,S55)によって行う。
【0065】
図9は、ズーム倍率に応じてズーム枠の幅を変更した一例を示す図である。
【0066】
同図に示すように、ステップS63で、ズーム枠401の大きさをズーム枠402に、より大きく変更すると、点302を中心として、ズーム枠402のように、ズーム倍率に応じてズーム枠の幅をより太くする。
【0067】
ステップS63,S64の処理後、ステップS65に進み、ズーム倍率に応じて音出力を行うかどうかの判定を行う。なお、音出力を行うかどうかの選択は、随時設けてあるズーム設定変更処理(ステップS12,S32、S55)によって行う。ステップS65で、ズーム倍率に応じて音出力を行う指定がなされている場合には、ズーム枠の大きさ変更時、ステップS66にてズーム倍率に応じた音の大きさまたは音色をブザー20から出力する。
【0068】
そして、ステップS65,S66の処理後、ステップS42に戻り、入力検出を行う。
【0069】
このように、本実施の形態では、表示された画面をズーム倍率の設定に応じて、ズーム枠の幅または音出力を変更し、ズーム倍率の設定を視覚的に行うようにしたので、ズーム倍率設定時の失敗が減少し、短時間で画面のズームを行うことができる。
【0070】
(第3の実施の形態)
前記第1の実施の形態では、ズームを行う際にズーム補助のためのズーム枠表示を設けたが、本実施の形態では、ズーム枠に、破線、色、太さという情報を付加するようにしている。
【0071】
なお、本実施の形態におけるハードウェアの構成は、前記第1の実施の形態と同様のものを用いている。
【0072】
本実施の形態のズーム処理は、図3〜図5のフローチャートで示したもの、つまり前記第1の実施の形態で説明したものと同様なものを用いて実現している。
【0073】
図10(a)は、ズーム枠209を移動させる際のズーム枠始点位置を示す図である。
【0074】
同図において、ズーム枠始点位置は、中心である点505とズーム枠の四隅である点501〜504からなる。ユーザは、まず随時設けてあるズーム設定変更処理(ステップS12,S32,S55)によって、点501〜505からズーム枠の移動始点位置を決定する。例えば、点501をズーム枠移動始点にした場合には、図10(b)に示すように、ズーム枠209は点501を始点にしてズーム枠506へ移動する。
【0075】
図11(a),(b)は、ズーム枠の表示態様を表示画面のズームイン時とズームアウト時とで異ならせた一例を示す図である。
【0076】
ユーザは、まず随時設けてあるズーム設定変更処理(ステップS12,S32,S55)によって、ズームイン/ズームアウトそれぞれのズーム枠の表示態様を決定する。
【0077】
実際にズーム枠を表示させると、ズームイン時は、図11(a)に示す、一点鎖線のズーム枠601が表示され、ズームアウト時は、図11(b)に示す、二点鎖線のズーム枠602が表示される。
【0078】
ズームの枠の表示形態は、図11(a),(b)に示す鎖線に限らず、ズーム枠の色、ズーム枠幅の太さを変えるようにしても良い。
【0079】
このように、本実施例の形態では、画面上のズーム枠の表示形態をズームの種類に応じて変え、ズーム倍率設定を視覚的に行うようにしたので、ズーム時の失敗が減少し、短時間で画面のズームを行ことができる。
【0080】
なお、上述した各実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。
【0081】
この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0082】
プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。
【0083】
また、コンピュータが読出したプログラムコードを実行することにより、上述した各実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した各実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0084】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した各実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0085】
以下、本発明の実施態様の例を列挙する。
【0086】
(実施態様1) 画像を表示するとともに、該画像上にズーム領域を表示する表示手段と、
前記ズーム領域の位置および大きさを指示する指示手段と、
前記ズーム領域が、前記指示手段によって指示された位置および大きさになるように、前記表示手段を制御する制御手段と、
該制御手段によって制御されたズーム領域に基づいて、該ズーム領域内の画像をズームするズーム手段と
を有することを特徴とする携帯端末。
【0087】
(実施態様2) ズーム態様を選択するズーム態様選択手段をさらに有し、
前記制御手段は、前記ズーム態様選択手段によって選択されたズーム態様に応じて、当該ズーム領域の大きさを制御する
ことを特徴とする実施態様1に記載の携帯端末。
【0088】
(実施態様3) 前記ズーム態様は、等倍ズームおよび変倍ズームを含むことを特徴とする実施態様2に記載の携帯端末。
【0089】
(実施態様4) 直前に実行され、取り消された操作を再度実行するREDO手段と、
直前に実行された操作を取り消して、元の状態に戻すUNDO手段と
をさらに有することを特徴とする実施態様1に記載の携帯端末。
【0090】
(実施態様5) 前記制御手段によって制御されたズーム領域の大きさに応じて、ズーム領域の表示態様を変更する変更手段をさらに有することを特徴とする実施態様1に記載の携帯端末。
【0091】
(実施態様6) 前記制御手段によって制御されたズーム領域の大きさに応じて、通知態様を変更し、ユーザに通知する通知手段をさらに有することを特徴とする実施態様1に記載の携帯端末。
【0092】
(実施態様7) 前記制御手段により、当該ズーム領域の大きさが制御されるときに、該大きさ制御の中心位置を設定する設定手段をさらに有することを特徴とする実施態様1に記載の携帯端末。
【0093】
(実施態様8) 表示手段に画像を表示するとともに、該画像上にズーム領域を表示する表示ステップと、
前記ズーム領域が、指示手段によって指示された位置および大きさになるように、前記表示ステップを制御する制御ステップと、
該制御ステップによって制御されたズーム領域に基づいて、該ズーム領域内の画像をズームするズームステップと
を有することを特徴とする携帯端末の制御方法。
【0094】
(実施態様9) 携帯端末の制御方法を、コンピュータに実現させるためのプログラムであって、
前記制御方法は、
表示手段に画像を表示するとともに、該画像上にズーム領域を表示する表示ステップと、
前記ズーム領域が、指示手段によって指示された位置および大きさになるように、前記表示ステップを制御する制御ステップと、
該制御ステップによって制御されたズーム領域に基づいて、該ズーム領域内の画像をズームするズームステップと
を有することを特徴とするプログラム。
【0095】
【発明の効果】
以上説明したように、本発明によれば、表示画面のズームしたい領域を確実かつ容易にズームできて、拡大/縮小画面を表示させることができるので、ユーザの使い勝手を向上させることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係る携帯端末の概略構成を示すブロック図である。
【図2】図1の携帯端末の外観構成を示す図である。
【図3】図1の携帯端末の画面上に、ズームを補助するためのズーム枠を表示させる処理の手順を示すフローチャートである。
【図4】ズーム枠が表示されてから、ズームの中心位置を確定し、ズーム枠を確定するまでの処理の手順を示すフローチャートである。
【図5】ズーム枠の位置が確定されてから、実際にズームを行うまでの処理の手順を示すフローチャートである。
【図6】図4〜図6のズーム処理を説明するための図である。
【図7】本発明の第2の実施の形態に係る携帯端末で実行されるズーム処理中、図4〜図6のズーム処理と異なる処理の手順を示すフローチャートである。
【図8】図7のズーム処理を説明するための図である。
【図9】ズーム倍率に応じてズーム枠の幅を変更した一例を示す図である。
【図10】本発明の第3の実施の形態に係る携帯端末において、ズーム枠を移動させる処理を説明するための図である。
【図11】ズーム枠の表示態様を表示画面のズームイン時とズームアウト時とで異ならせた一例を示す図である。
【符号の説明】
1 CPU
2 ROM
3 RAM
3a 画像展開エリア
3b ワークエリア
3c VRAM
3d 一時退避エリア
4 データ格納部
9 タブレットコントロール部
10 タブレット
11 LCDコントロール部
12 表示駆動部
13 表示部
19 操作スイッチ群
20 ブザー
101 本体
104〜112 操作キー
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a mobile terminal capable of zooming a partial area of a display screen.
[0002]
[Prior art]
Conventionally, since a mobile terminal has a small display screen, a part of the display screen can be zoomed in order to obtain information on the part of the display screen.
[0003]
[Problems to be solved by the invention]
However, in the above-mentioned conventional mobile terminal, the operation of zooming the display screen is complicated, and the size of the mobile terminal is small, so that the arbitrarily designated display screen area cannot be easily zoomed. Was inconvenient.
[0004]
The present invention has been made in view of this point, and it is an object of the present invention to provide a mobile terminal capable of improving the usability of a user regarding zooming of a display screen.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, the portable terminal according to claim 1 displays an image, displays a zoom region on the image, and instructs a position and a size of the zoom region. A control unit that controls the display unit so that the zoom region has a position and a size designated by the designation unit; and a control unit that controls the display unit based on the zoom region controlled by the control unit. And zoom means for zooming the image.
[0006]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0007]
(First Embodiment)
FIG. 1 is a block diagram showing a schematic configuration of the mobile terminal according to the first embodiment of the present invention.
[0008]
In FIG. 1, a CPU (central processing unit) 1 controls the entire portable terminal. The CPU 1 is connected to a ROM (Read Only Memory) 2 storing a control program, a RAM (Random Access Memory) 3, a data storage unit 4, an LCD (Liquid Crystal Display) control unit 11, and a tablet control unit 9, respectively. ing.
[0009]
A display unit 13 made of, for example, a color liquid crystal is connected to the LCD control unit 11 via a display drive unit 12.
[0010]
The tablet control unit 9 is connected to a handwritten tablet 10 for detecting a user operation on an image displayed on the display unit 13.
[0011]
The CPU 1 performs various controls based on a control program in the ROM 2. These controls include a process of transferring data from the RAM 3 to the LCD control unit 11 by DMA (Direct Memory Access), a process of compressing image data into a JPEG (Joint Photographic Experts Group), and a file format to the data storage unit 4. The processing for storing is included.
[0012]
The RAM 3 includes an image development area 3a, a work area 3b, a VRAM 3c, and a temporary save area 3d. The image development area 3a is used as a temporary buffer for temporarily storing JPEG compressed image data read from the data storage unit 4, and as a dedicated image work area for image compression processing and decompression processing. . The work area 3b is a work area for various application programs including a control program. The VRAM 3c is used as a VRAM (Video RAM) for storing display data to be displayed on the display unit 13. The temporary save area 3d is an area for temporarily saving various data.
[0013]
The data storage unit 4 is a memory for storing photographed image data JPEG-compressed by the CPU 1 or various attached data referred to by application programs in a file format. In the present embodiment, the data storage unit 4 is configured by a flash memory. Is done.
[0014]
The LCD control unit 11 performs a process of receiving YUV digital image data generated by performing JPEG decompression on the image file in the data storage unit 4, converting the received image data into RGB digital signals, and then outputting the converted digital signals to the display drive unit 12.
[0015]
The display drive unit 12 performs control for driving the display unit 13.
[0016]
The display unit 13 is a display for displaying an image.
[0017]
The operation SW (switch) group 19 is a switch for instructing execution of an application program stored in the portable terminal or instructing a command such as a screen movement.
[0018]
The buzzer 20 is for notifying the user of a command execution status sound or a warning sound of the mobile terminal, and outputs a sound by a signal from the CPU 1.
[0019]
FIG. 2 is a diagram illustrating an external configuration of the mobile terminal according to the present embodiment.
[0020]
As shown in FIG. 1, on the upper surface of the main body 101, a plurality of operation keys 104 to 112 (corresponding to the operation switch group 19 in FIG. 1) are provided together with the display unit 13. Here, keys 105 to 108 are directional keys for instructing up / down / left / right directions, respectively, and keys 109 to 112 are keys for instructing command execution.
[0021]
Hereinafter, the screen zoom process executed by the mobile terminal configured as described above will be described based on the flowcharts of FIGS. 3 to 5 and the display example of FIG.
[0022]
FIG. 3 is a flowchart illustrating a procedure of a process of displaying a zoom frame for assisting the zoom on the screen of the mobile terminal according to the present embodiment.
[0023]
In the figure, first, in step S1, when the user executes an application such as image display or map display on the portable terminal, in step S2, an image as shown in FIG. I do.
[0024]
Next, in step S <b> 3, it is determined whether the user has performed an input operation on the operation switch group 19 or performed an input operation on the command icons 202 to 206 displayed on the display unit 13 on the mobile terminal using the handwriting tablet 10. Then, it waits until an input operation by the user is detected.
[0025]
When an input operation is detected in step S3, the process proceeds to step S4, and it is determined whether or not the content of the detected operation is an instruction to display a zoom frame, that is, whether the operation of the button 202 in FIG. When the display of the zoom frame is instructed, the zoom frame 209 is displayed in step S21 of FIG. 4 as shown in FIG. 6B.
[0026]
On the other hand, if it is determined in step S4 that the display of the zoom frame has not been instructed, the process proceeds to step S5, and it is determined whether or not it is the instruction input of the REDO command that is performed immediately before and executes the canceled operation again. . At this time, if the input for instructing the REDO command is performed, the process proceeds to step S6, and the zoom frame 209 in FIG. 6B is displayed by the UNDO process for canceling the operation performed immediately before step S28 in FIG. It is checked whether or not the screen has been returned to the screen display without the zoom frame of FIG. 6A from the screen that has been made, and if the screen display of FIG. Then, the REDO processing is performed, the zoom frame 209 is displayed again, and the display of FIG. 6B is performed.
[0027]
On the other hand, if it is determined in step S6 that the UNDO process in step S28 has not been performed, the process returns to input detection in step S3.
[0028]
If it is determined in step S5 that the input is not the instruction input of the REDO command, the process proceeds to step S8, and it is determined whether the input is the instruction input of the UNDO command. At this time, if the input for instructing the UNDO command is performed, the process proceeds to step S9, and the current screen display is zoomed by the zoom processing as shown in FIG. 6C or 6D. It is determined whether it is a screen, and if it is a zoom display screen, the process proceeds to step S10 to perform UNDO processing, returns to the display shown in FIG. 6B, and then proceeds to step S41 in FIG. The process proceeds to a process of changing the setting of the size.
[0029]
On the other hand, if the current screen display is not the zoom display screen in step S9, the process returns to the input detection in step S3.
[0030]
On the other hand, if it is determined in step S8 that the input is not the instruction input of the UNDO command, the process advances to step S11 to determine whether the input is the instruction input for changing the zoom setting. Changing the zoom setting means, for example, changing the width setting of the zoom frame 209 or the like.
[0031]
In step S11, when an input for instructing to change the zoom setting has been made, the process proceeds to step S12, where the zoom setting is changed in accordance with the user's instruction, and the process returns to step S3 for input detection.
[0032]
On the other hand, if the input for instructing the change of the zoom setting is not made in step S11, that is, if an input that is not described above is detected, the process returns to step S3 without performing any operation.
[0033]
FIG. 4 is a flowchart showing a procedure from the display of the zoom frame 209 to the determination of the zoom center position to the determination of the zoom frame.
[0034]
First, in step S21, a zoom frame 209 is displayed as shown in FIG.
[0035]
Next, in step S22, it is determined whether the user has performed an input operation on the operation switch group 19 or performed an input operation on the command icons 202 to 206 displayed on the display unit 13 on the mobile terminal using the handwriting tablet 10. Then, it waits until an input operation by the user is detected.
[0036]
When an input operation is detected in step S22, the process proceeds to step S23, where it is determined whether the detected operation is an instruction to determine the position of the zoom frame 209, and the instruction to determine the position of the zoom frame 209 is issued. If so, the process proceeds to step S41 in FIG. 5, and the position of the zoom frame 209 is determined.
[0037]
On the other hand, if it is determined in step S23 that the instruction to determine the position of the zoom frame 209 has not been issued, the process proceeds to step S24, and it is determined whether the input is the instruction input of the REDO command. At this time, if the input for instructing the REDO command is performed, the process proceeds to step S25, and it is determined whether or not the process returns to step S25 from the UNDO process of step S51 in FIG. 5, and returns to step S51. If yes, the process proceeds to step S26, where a REDO process is performed, and the zoom frame 209 is determined again.
[0038]
On the other hand, if it is determined in step S25 that the process has not returned from step S51, the process returns to input detection in step S22.
[0039]
On the other hand, if it is determined in step S24 that the input is not the instruction input of the REDO command, the process proceeds to step S27, and it is determined whether the input is the instruction input of the UNDO command. At this time, if the input for instructing the UNDO command is performed, the process proceeds to step S28, and UNDO processing such as turning off the display of the zoom frame 209 shown in FIG. After the display shown in (2), the process returns to step S2 in FIG.
[0040]
On the other hand, if it is determined in step S27 that the input is not the instruction input of the UNDO command, the process advances to step S29 to determine whether the input is the instruction input of the zoom frame movement. At this time, if the input to instruct the movement of the zoom frame is performed, the process proceeds to step S30, and when the user moves the position of the zoom frame 209 by the operation SW group 19 or the handwriting tablet 10, the zoom frame is moved accordingly. Let it.
[0041]
On the other hand, if it is determined in step S29 that the input is not an instruction to move the zoom frame, the process advances to step S31 to determine whether the input is an instruction to change the zoom setting. At this time, if an input for instructing to change the zoom setting has been made, the process proceeds to step S32, where the zoom setting is changed according to the user's instruction, and then the process returns to step S22 for input detection.
[0042]
On the other hand, if the input for instructing the change of the zoom setting has not been made in step S31, that is, if an input not described above has been detected, the process returns to step S22 without performing any operation.
[0043]
FIG. 5 is a flowchart showing a procedure of processing from the time when the position of the zoom frame 209 is determined to the time when zooming is actually performed.
[0044]
First, in step S41, the position of the zoom frame 209 is determined.
[0045]
Next, in step S42, it is determined whether the user has performed an input operation on the operation SW group 19 or performed an input operation on the command icons 202 to 206 displayed on the display unit 13 on the mobile terminal using the handwriting tablet 10. Then, it waits until an input operation by the user is detected.
[0046]
When an input operation is detected in step S42, the process proceeds to step S43, and it is determined whether or not the detected operation is an instruction for determining the size of the zoom frame 209, that is, an instruction for determining a zoom magnification. At this time, if an input instruction for determining the size of the zoom frame 209 has been issued, the process proceeds to step S44, where it is determined whether to zoom in or zoom out the screen. Then, the screen zoom-in processing is performed, the zoom frame 209 is deleted from the display shown in FIG. 6B, and the display screen is zoomed-in as shown in FIG. 6C, and the zoom-in display is completed.
[0047]
On the other hand, if the screen is to be zoomed out in step S44, the process proceeds to step S46, in which the screen is zoomed out, the zoom frame 209 is deleted from the display shown in FIG. 6B, and the screen shown in FIG. As described above, the display screen is zoomed out, and the zoom-out display is completed.
[0048]
On the other hand, when the input instruction for determining the size of the zoom frame 209 is not performed in step S43, the process proceeds to step S47, and it is determined whether the input is the instruction input of the REDO command. At this time, if the input for instructing the REDO command is performed, the process proceeds to step S48, and the UNDO process of step S10 in FIG. 3 is performed to display the zoomed-in display of FIG. ), The zoom frame 209 is displayed, and it is checked whether or not the display returns to the display shown in FIG. 6B immediately before zooming, in which the position of the zoom frame 209 is fixed, and the UNDO in step S10. If the processing has been performed, the process proceeds to step S49, where the REDO processing is performed, the zoom-in or zoom-out processing is performed again, the zoom frame 209 is deleted from the display of FIG. , FIG. 6 (c) or FIG. 6 (d).
[0049]
On the other hand, if the UNDO process in step S10 has not been performed, the process returns to the input detection in step S42.
[0050]
On the other hand, if the input is not the instruction input of the REDO command in step S47, the process proceeds to step S50, and it is determined whether the input is the input input of the UNDO command. At this time, if the input for instructing the UNDO command is performed, the process proceeds to step S51, where the position is determined and the UNDO process for enabling the movement of the zoom frame 209 which cannot be moved is performed. Move to step S21.
[0051]
On the other hand, if it is determined in step S50 that the input is not the instruction input of the UNDO command, the process proceeds to step S52 to determine whether the input is an instruction input for changing the size of the zoom frame 209. At this time, when an instruction input for changing the size of the zoom frame 209 is performed, the process proceeds to step S53, and when the user moves the zoom frame 209 using the operation switch group 19 or the handwritten tablet 10, the user responds to this. To change the size of the zoom frame 209.
[0052]
On the other hand, if it is determined in step S52 that the input is not an instruction to change the size of the zoom frame 209, the process proceeds to step S54 to determine whether the input is an instruction to change the zoom setting. At this time, if an input for instructing to change the zoom setting is made, the process proceeds to step S55, where the zoom setting is changed in accordance with the user's instruction, and then the process returns to step S42 for input detection.
[0053]
On the other hand, if the input for changing the zoom setting has not been made in step S54, that is, if the input has not been described above, the process returns to step S42 without doing anything.
[0054]
As described above, according to the embodiment, the displayed screen can be visually zoomed by using the auxiliary zoom frame without specifying the magnification, so that the failure of the zoom operation is reduced. be able to.
[0055]
Even if the zoom operation fails, the magnification of the screen enlargement / reduction is changed in a short time by the UNDO, REDO command or the like, so that the usability can be improved.
[0056]
(Second embodiment)
In the first embodiment, when performing zooming, a zoom frame for assisting zooming is displayed, the size of the zoom frame is freely changed, a magnification is set, then zooming is performed, and the image is zoomed. Let me. In the present embodiment, by setting the zoom magnification / magnification / magnification change setting and information corresponding to the zoom magnification in a zoom frame, the usage of the zoom frame is facilitated, and the zoom operation is further simplified. It was made.
[0057]
Note that the hardware configuration of the present embodiment uses the hardware configuration of the first embodiment.
[0058]
The zoom processing of the present embodiment is performed by changing only the processing of step S53 of FIG. 5 to the processing shown in the flowchart of FIG. 7 in the zoom processing of the first embodiment (FIGS. 3 to 5). Has been realized. The processing procedure after this change will be described with reference to the flowchart of FIG. 7 and display examples of FIGS. 8 (a), (b) and FIG.
[0059]
In step S52 of FIG. 7 (same as step S52 of FIG. 5), if an instruction to change the size of the zoom frame is input, the process proceeds to step S61 to determine whether the image to be zoomed is the same-size zoom. Determine whether The same-size zoom means that the vertical / horizontal zoom magnification of the image to be zoomed is the same. The selection of the equal-magnification zoom is performed by a zoom setting change process (steps S12, S32, S55) provided as needed.
[0060]
In step S61, when the same-magnification zoom is performed, the process proceeds to step S62, and as shown in FIG. The size of the vertical and horizontal zoom frames is changed in association with 304A.
[0061]
On the other hand, if it is determined in step S61 that the magnification is not the same-size zoom setting, the process proceeds to step S67 to perform variable-magnification zoom. The variable zoom means that the vertical / horizontal zoom magnification of the image to be zoomed is different.
[0062]
In step S67, it is determined whether or not the direction of the operation switch group 19 or the handwritten tablet 10 that has been detected is the vertical direction. At this time, if the frame is in the vertical direction, the process proceeds to step S68, and as shown in FIG. 8B, the zoom frame is vertically shifted from the zoom frame 301B to the zoom frame 304B around the point 302 at the time of frame movement. Change the size of.
[0063]
On the other hand, if the input is not detected in the vertical direction in step S67, that is, when the input is detected in the horizontal direction, the process proceeds to step S69 to change the size of the zoom frame in the horizontal direction.
[0064]
After the processing of steps S62, S68, and S69 for changing the size of the zoom frame, the process proceeds to step S63 to determine whether to change the width of the zoom frame according to the zoom magnification. The selection of whether to change the width of the zoom frame is made by a zoom setting change process (steps S12, S32, S55) provided as needed.
[0065]
FIG. 9 is a diagram illustrating an example in which the width of the zoom frame is changed according to the zoom magnification.
[0066]
As shown in the drawing, when the size of the zoom frame 401 is changed to a zoom frame 402 in step S63, the width of the zoom frame is changed in accordance with the zoom magnification, like the zoom frame 402, around the point 302. To be thicker.
[0067]
After the processing of steps S63 and S64, the process proceeds to step S65, and it is determined whether or not to output sound according to the zoom magnification. The selection of whether or not to output a sound is made by a zoom setting change process (steps S12, S32, S55) provided as needed. If it is determined in step S65 that the sound output is to be performed according to the zoom magnification, the size or tone of the sound corresponding to the zoom magnification is output from the buzzer 20 in step S66 when the size of the zoom frame is changed. I do.
[0068]
Then, after the processes of steps S65 and S66, the process returns to step S42 to perform input detection.
[0069]
As described above, in the present embodiment, the displayed screen is changed according to the setting of the zoom magnification, the width of the zoom frame or the sound output is changed, and the setting of the zoom magnification is performed visually. The failure at the time of setting is reduced, and the screen can be zoomed in a short time.
[0070]
(Third embodiment)
In the first embodiment, a zoom frame display is provided to assist zooming when performing zooming. In the present embodiment, information such as a broken line, a color, and a thickness is added to the zoom frame. ing.
[0071]
Note that the hardware configuration in the present embodiment is the same as that in the first embodiment.
[0072]
The zoom processing according to the present embodiment is realized using the processing shown in the flowcharts of FIGS. 3 to 5, that is, the same processing as that described in the first embodiment.
[0073]
FIG. 10A is a diagram illustrating a zoom frame start point position when the zoom frame 209 is moved.
[0074]
In the figure, the zoom frame start point position includes a center point 505 and four corners 501 to 504 of the zoom frame. First, the user determines the movement start point position of the zoom frame from the points 501 to 505 by the zoom setting change processing (steps S12, S32, S55) provided as needed. For example, when the point 501 is set as the start point of the movement of the zoom frame, the zoom frame 209 moves to the zoom frame 506 starting from the point 501 as shown in FIG.
[0075]
FIGS. 11A and 11B are diagrams illustrating an example in which the display mode of the zoom frame is different between when the display screen is zoomed in and when the display screen is zoomed out.
[0076]
First, the user determines the display mode of the zoom frame for each of the zoom-in / zoom-out by the zoom setting change processing (steps S12, S32, S55) provided as needed.
[0077]
When the zoom frame is actually displayed, when zooming in, a dashed-dot zoom frame 601 shown in FIG. 11A is displayed, and when zooming out, a two-dot dashed line zoom frame shown in FIG. 11B is displayed. 602 is displayed.
[0078]
The display form of the zoom frame is not limited to the chain lines shown in FIGS. 11A and 11B, and the color of the zoom frame and the thickness of the zoom frame width may be changed.
[0079]
As described above, in the embodiment of the present invention, the display mode of the zoom frame on the screen is changed in accordance with the type of zoom, and the zoom magnification is set visually. You can zoom the screen by time.
[0080]
A storage medium storing the program code of software for realizing the functions of the above-described embodiments is supplied to a system or an apparatus, and a computer (or CPU or MPU) of the system or the apparatus is stored in the storage medium. It goes without saying that the object of the present invention is also achieved by reading and executing the program code.
[0081]
In this case, the program code itself read from the storage medium implements the novel function of the present invention, and the storage medium storing the program code constitutes the present invention.
[0082]
Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, a magneto-optical disk, a CD-ROM, a CD-R, a CD-RW, a DVD-ROM, a DVD-RAM, a DVD-RW, a DVD + RW, and a magnetic disk. A tape, a nonvolatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from a server computer via a communication network.
[0083]
When the computer executes the readout program code, not only the functions of each of the above-described embodiments are realized, but also an OS or the like running on the computer is actually executed based on the instructions of the program code. It goes without saying that a case where some or all of the processing is performed and the functions of the above-described embodiments are realized by the processing is also included.
[0084]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that a CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0085]
Hereinafter, examples of embodiments of the present invention will be listed.
[0086]
(Embodiment 1) Display means for displaying an image and displaying a zoom area on the image,
Indicating means for indicating the position and size of the zoom area;
Control means for controlling the display means, so that the zoom area is at the position and size designated by the designation means;
Zoom means for zooming an image in the zoom area based on the zoom area controlled by the control means;
A mobile terminal comprising:
[0087]
(Embodiment 2) It further has a zoom mode selection means for selecting a zoom mode,
The control unit controls the size of the zoom area according to the zoom mode selected by the zoom mode selection unit.
3. The mobile terminal according to claim 1, wherein
[0088]
(Embodiment 3) The mobile terminal according to embodiment 2, wherein the zoom mode includes a unit-size zoom and a variable-power zoom.
[0089]
(Embodiment 4) A REDO means which is executed immediately before and executes the canceled operation again,
UNDO means for canceling the last executed operation and returning to the original state;
The mobile terminal according to the first embodiment, further comprising:
[0090]
(Fifth Embodiment) The mobile terminal according to the first embodiment, further comprising changing means for changing the display mode of the zoom area according to the size of the zoom area controlled by the control means.
[0091]
(Sixth Embodiment) The portable terminal according to the first embodiment, further comprising a notification unit that changes a notification mode according to the size of the zoom area controlled by the control unit and notifies the user.
[0092]
(Embodiment 7) The mobile phone according to embodiment 1, further comprising setting means for setting a center position of the size control when the size of the zoom area is controlled by the control means. Terminal.
[0093]
(Eighth Embodiment) A display step of displaying an image on a display means and displaying a zoom area on the image,
A control step of controlling the display step so that the zoom area has a position and a size designated by a designation unit;
A zoom step of zooming an image in the zoom area based on the zoom area controlled by the control step;
A method for controlling a mobile terminal, comprising:
[0094]
(Embodiment 9) A program for causing a computer to implement a method for controlling a mobile terminal,
The control method includes:
Displaying an image on the display means, and displaying a zoom area on the image;
A control step of controlling the display step so that the zoom area has a position and a size designated by a designation unit;
A zoom step of zooming an image in the zoom area based on the zoom area controlled by the control step;
A program characterized by having:
[0095]
【The invention's effect】
As described above, according to the present invention, the area to be zoomed on the display screen can be surely and easily zoomed, and the enlarged / reduced screen can be displayed, so that the usability of the user can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of a mobile terminal according to a first embodiment of the present invention.
FIG. 2 is a diagram showing an external configuration of the mobile terminal shown in FIG.
FIG. 3 is a flowchart illustrating a procedure of a process of displaying a zoom frame for assisting zoom on the screen of the mobile terminal of FIG. 1;
FIG. 4 is a flowchart illustrating a procedure of processing from display of a zoom frame to determination of a zoom center position to determination of a zoom frame.
FIG. 5 is a flowchart illustrating a procedure of a process from when a position of a zoom frame is determined to when zoom is actually performed;
FIG. 6 is a diagram for explaining the zoom processing of FIGS. 4 to 6;
FIG. 7 is a flowchart illustrating a procedure of a process different from the zoom processes of FIGS. 4 to 6 during a zoom process performed by the mobile terminal according to the second embodiment of the present invention.
FIG. 8 is a diagram for explaining the zoom processing of FIG. 7;
FIG. 9 is a diagram illustrating an example in which the width of a zoom frame is changed according to a zoom magnification.
FIG. 10 is a diagram illustrating a process of moving a zoom frame in the mobile terminal according to the third embodiment of the present invention.
FIG. 11 is a diagram illustrating an example in which the display mode of the zoom frame is different between when the display screen is zoomed in and when the display screen is zoomed out.
[Explanation of symbols]
1 CPU
2 ROM
3 RAM
3a Image development area
3b Work area
3c VRAM
3d temporary evacuation area
4 Data storage unit
9 Tablet control section
10 tablets
11 LCD control section
12 Display drive unit
13 Display
19 Operation switch group
20 Buzzer
101 body
104-112 operation keys

Claims (1)

画像を表示するとともに、該画像上にズーム領域を表示する表示手段と、
前記ズーム領域の位置および大きさを指示する指示手段と、
前記ズーム領域が、前記指示手段によって指示された位置および大きさになるように、前記表示手段を制御する制御手段と、
該制御手段によって制御されたズーム領域に基づいて、該ズーム領域内の画像をズームするズーム手段と
を有することを特徴とする携帯端末。
Display means for displaying an image and displaying a zoom area on the image;
Indicating means for indicating the position and size of the zoom area;
Control means for controlling the display means, so that the zoom area is at the position and size designated by the designation means;
A portable device comprising: zoom means for zooming an image in the zoom area based on the zoom area controlled by the control means.
JP2002324228A 2002-11-07 2002-11-07 Mobile terminal Pending JP2004157869A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002324228A JP2004157869A (en) 2002-11-07 2002-11-07 Mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002324228A JP2004157869A (en) 2002-11-07 2002-11-07 Mobile terminal

Publications (1)

Publication Number Publication Date
JP2004157869A true JP2004157869A (en) 2004-06-03

Family

ID=32803881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002324228A Pending JP2004157869A (en) 2002-11-07 2002-11-07 Mobile terminal

Country Status (1)

Country Link
JP (1) JP2004157869A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1865725A1 (en) * 2005-03-29 2007-12-12 NEC Corporation Mobile terminal
JP2008527879A (en) * 2005-01-14 2008-07-24 ノキア コーポレイション Automatic personalization or configuration of mobile devices
JP2010256069A (en) * 2009-04-22 2010-11-11 Mitsubishi Electric Corp Navigation device
WO2012056337A1 (en) * 2010-10-29 2012-05-03 Nokia Corporation Responding to the receipt of zoom commands
WO2016056177A1 (en) 2014-10-10 2016-04-14 Canon Kabushiki Kaisha Control apparatus, method of controlling the same and program
US9794463B2 (en) 2015-04-13 2017-10-17 Canon Kabushiki Kaisha Control apparatus, method of controlling the same, and storage medium
US9955081B2 (en) 2014-11-18 2018-04-24 Canon Kabushiki Kaisha Imaging apparatus capable of adjusting imaging range to include target region, control method of imaging apparatus, and storage medium storing program therefor
EP3349432A1 (en) 2017-01-13 2018-07-18 Canon Kabushiki Kaisha Image capturing control apparatus, method of controlling the same and computer program
JP2019070808A (en) * 2018-11-22 2019-05-09 キヤノン株式会社 Display control device, display control method, and program
US10455145B2 (en) 2017-04-05 2019-10-22 Canon Kabushiki Kaisha Control apparatus and control method
US10841481B2 (en) 2014-10-10 2020-11-17 Canon Kabushiki Kaisha Control apparatus, method of controlling the same and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008527879A (en) * 2005-01-14 2008-07-24 ノキア コーポレイション Automatic personalization or configuration of mobile devices
EP1865725A1 (en) * 2005-03-29 2007-12-12 NEC Corporation Mobile terminal
EP1865725A4 (en) * 2005-03-29 2012-01-25 Nec Corp Mobile terminal
JP2010256069A (en) * 2009-04-22 2010-11-11 Mitsubishi Electric Corp Navigation device
WO2012056337A1 (en) * 2010-10-29 2012-05-03 Nokia Corporation Responding to the receipt of zoom commands
US8791963B2 (en) 2010-10-29 2014-07-29 Nokia Corporation Responding to the receipt of zoom commands
WO2016056177A1 (en) 2014-10-10 2016-04-14 Canon Kabushiki Kaisha Control apparatus, method of controlling the same and program
US10841481B2 (en) 2014-10-10 2020-11-17 Canon Kabushiki Kaisha Control apparatus, method of controlling the same and program
US9955081B2 (en) 2014-11-18 2018-04-24 Canon Kabushiki Kaisha Imaging apparatus capable of adjusting imaging range to include target region, control method of imaging apparatus, and storage medium storing program therefor
US9794463B2 (en) 2015-04-13 2017-10-17 Canon Kabushiki Kaisha Control apparatus, method of controlling the same, and storage medium
US10104279B2 (en) 2015-04-13 2018-10-16 Canon Kabushiki Kaisha Control apparatus, method of controlling the same, and storage medium
EP3349432A1 (en) 2017-01-13 2018-07-18 Canon Kabushiki Kaisha Image capturing control apparatus, method of controlling the same and computer program
US10771679B2 (en) 2017-01-13 2020-09-08 Canon Kabushiki Kaisha Image capturing control apparatus, method of controlling the same and computer readable storage medium
US10455145B2 (en) 2017-04-05 2019-10-22 Canon Kabushiki Kaisha Control apparatus and control method
JP2019070808A (en) * 2018-11-22 2019-05-09 キヤノン株式会社 Display control device, display control method, and program

Similar Documents

Publication Publication Date Title
US6700612B1 (en) Reviewing and navigating among images on an image capture unit using a thumbnail position memory bar
JP5361159B2 (en) Image display control device, control method therefor, program, and recording medium
JP2005223765A (en) Imaging apparatus and its control method
US20010033303A1 (en) Method and system for accelerating a user interface of an image capture unit during play mode
JP2008224484A (en) Imaging device, dimension measurement method, dimension measurement program
JP2010171961A (en) Menu display device, method for displaying menu, and imaging apparatus
JP2006293782A (en) Image processing device and image processing program
JP2001177764A (en) Image processing unit, image processing method and storage medium
JP2004157869A (en) Mobile terminal
JP2000341572A (en) Digital camera
JP2007079894A (en) Image processor, processing method and program
JP2004208291A (en) Digital imaging device and method for controlling it
JP2007193589A (en) Display device, method, and program
JPH11103436A (en) Image processor, image processing method and storage medium
WO2007007661A1 (en) Image processing device
JP5058133B2 (en) Camera, camera display method and image display program
KR100976470B1 (en) Method for editing picture in mobile terminal
JP2004133518A (en) Screen display processing of portable information apparatus
JP2004312463A (en) Image regenerating method
JP2010124241A (en) Camera, display method thereof, and program for image display
JP2006262496A (en) Image recording/reproducing device, camera device, image recording/reproducing method, and program
JP4534205B2 (en) Image display device
JP2002009991A (en) Information processor, information processing system, method therefor and storage medium
JP2004094890A (en) Electronic device and its operation processing method
JP4777013B2 (en) Portable electronic devices