JP2005216170A - Mobile terminal device and method for processing input to information processor - Google Patents

Mobile terminal device and method for processing input to information processor Download PDF

Info

Publication number
JP2005216170A
JP2005216170A JP2004024454A JP2004024454A JP2005216170A JP 2005216170 A JP2005216170 A JP 2005216170A JP 2004024454 A JP2004024454 A JP 2004024454A JP 2004024454 A JP2004024454 A JP 2004024454A JP 2005216170 A JP2005216170 A JP 2005216170A
Authority
JP
Japan
Prior art keywords
extracted
designated
display
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004024454A
Other languages
Japanese (ja)
Inventor
Fumiyuki Izawa
史行 井澤
Shigeto Tomiyasu
薫人 富安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2004024454A priority Critical patent/JP2005216170A/en
Publication of JP2005216170A publication Critical patent/JP2005216170A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile terminal device that enables an interface for an input process to be constructed from certain images on a display screen. <P>SOLUTION: A display part 15 displays images. A control part 20 extracts a plurality of objects by extracting the contours of the images displayed, and allocates the plurality of keys of a key input part 13 to the objects extracted. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、たとえば携帯電話機のように、画像を表示可能な携帯端末装置および情報処理装置の入力処理方法に関するものである。   The present invention relates to a portable terminal device capable of displaying an image, such as a cellular phone, and an input processing method for an information processing device.

従来、携帯電話機に代表される携帯端末装置には、複数のキーが設置され、かかる複数のキーに対するキー操作を行うことで、ユーザが携帯電話機が有する様々な機能を選択して実行させることができるように構成されている。
かかるキー操作は、昨今、携帯電話機が有する機能が増加するにつれて、複雑化されており、ユーザが選択したい機能を素早く見つけることができるような入力方法について、様々な技術が提案されている。
たとえば、下記特許文献1には、機能を図形化したアイコンとして表示し、これらを階層表示させることにより、ユーザにとって機能を認識しやすくさせる技術が開示されている。
2. Description of the Related Art Conventionally, a mobile terminal device represented by a mobile phone is provided with a plurality of keys, and a user can select and execute various functions of the mobile phone by performing key operations on the plurality of keys. It is configured to be able to.
Such key operations have recently become more complex as the functions of mobile phones have increased, and various techniques have been proposed for an input method that allows a user to quickly find a function that the user wants to select.
For example, Patent Document 1 below discloses a technique that makes functions easy to recognize for the user by displaying the functions as graphics icons and displaying them hierarchically.

特開平11−237942号公報Japanese Patent Application Laid-Open No. 11-237942

しかしながら、近年、携帯端末装置の小型化が進んだことから、表示画面を大型化することにも物理的に限界があり、機能を図形化したアイコンをわかりやすく、かつ、他の表示物に影響をできるだけ与えないように表示させる技術が要望される。   However, due to the recent progress in miniaturization of mobile terminal devices, there is a physical limit to increasing the size of the display screen, which makes it easy to understand icons whose functions are made into figures, and affects other display objects. Therefore, there is a demand for a technique for displaying the image so as not to give as much as possible.

本発明はかかる事情に鑑みてなされたものであり、その目的は、表示画面上の任意の画像から入力処理のインタフェースを構築可能な携帯端末装置および情報処理装置の入力処理方法を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a portable terminal device and an information processing device input processing method capable of constructing an input processing interface from an arbitrary image on a display screen. is there.

上記目的を達成するために本発明の第1の観点は、少なくとも画像を表示する表示手段と、操作手段と、前記表示手段に所定の画像を表示させている間に、前記操作手段に対する所定の操作がなされると、前記所定の画像からオブジェクトを抽出し、抽出したオブジェクトに対して、一の機能を対応付け、さらに、オブジェクトが前記操作手段により指定されると、指定されたオブジェクトに対応付けられた機能を実行する制御手段とを有する携帯端末装置である。   In order to achieve the above object, a first aspect of the present invention provides a display unit that displays at least an image, an operation unit, and a predetermined image with respect to the operation unit while displaying the predetermined image on the display unit. When an operation is performed, an object is extracted from the predetermined image, one function is associated with the extracted object, and when the object is designated by the operation means, the object is associated with the designated object. A portable terminal device having a control means for executing a given function.

好適には、オブジェクトは、当該オブジェクトの表示領域を含んで構成される指定領域と関連付けられ、前記制御手段は、前記操作手段により前記指定領域が指定されることをもって、当該指定領域に関連付けられたオブジェクトが指定されたと判断する。   Preferably, the object is associated with a designated area including a display area of the object, and the control unit associates the designated area with the designated area when the designated means is designated by the operation means. It is determined that the object is specified.

好適には、前記制御手段は、オブジェクトの表示領域に収まる最大の矩形である第1の矩形と、前記オブジェクトの表示領域を収めることのできる最小の矩形である第2の矩形と、を算出し、前記第1の矩形と前記第2の矩形の中間の大きさの矩形である第3の矩形内の領域を、指定領域として前記オブジェクトに関連付ける。   Preferably, the control means calculates a first rectangle that is the largest rectangle that can be accommodated in the display area of the object, and a second rectangle that is the smallest rectangle that can accommodate the display area of the object. A region in a third rectangle that is a rectangle having a size intermediate between the first rectangle and the second rectangle is associated with the object as a designated region.

好適には、前記制御手段は、前記表示手段に所定の画像を表示させている場合に、前記操作手段に対する所定の操作がなされると、前記表示手段が表示可能な最大表示領域を所定数の複数の領域に分割し、前記複数の領域のそれぞれについて、オブジェクトを抽出する。   Preferably, the control unit displays a predetermined number of maximum display areas that can be displayed by the display unit when a predetermined operation is performed on the operation unit when a predetermined image is displayed on the display unit. Dividing into a plurality of regions, an object is extracted for each of the plurality of regions.

上記目的を達成するために本発明の第2の観点は、表示部と、操作部と、を有する情報処理装置の入力処理方法であって、前記表示部に所定の画像を表示させるステップと、前記操作部に対する所定の操作を行うステップと、前記所定の操作に応じて、前記所定の画像からオブジェクトを抽出するステップと、抽出したオブジェクトに対して、一の機能を対応付けるステップと、前記操作部によりオブジェクトを指定するステップと、指定されたオブジェクトに対応付けられた機能を実行するステップとを有する。   In order to achieve the above object, a second aspect of the present invention is an input processing method of an information processing apparatus having a display unit and an operation unit, and a step of displaying a predetermined image on the display unit; Performing a predetermined operation on the operation unit, extracting an object from the predetermined image according to the predetermined operation, associating one function with the extracted object, and the operation unit The step of designating an object by the above and the step of executing a function associated with the designated object.

本発明によれば、表示画面上の任意の画像に基づいて入力処理のインタフェースが構築でき、ユーザにとって操作の快適性が向上する利点がある。   According to the present invention, an interface for input processing can be constructed based on an arbitrary image on a display screen, and there is an advantage that operational comfort is improved for the user.

実施形態
以下、本発明に係る携帯端末装置の実施形態を添付図面に関連付けて説明する。
図1は、本発明の携帯端末装置としての携帯電話機1のシステム構成の一例を図解したブロック図である。図2は、携帯電話機1の外観の一例を図解した図である。
DESCRIPTION OF EMBODIMENTS Embodiments of a mobile terminal device according to the present invention will be described below with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating an example of a system configuration of a mobile phone 1 as a mobile terminal device of the present invention. FIG. 2 is a diagram illustrating an example of the appearance of the mobile phone 1.

図1に示すように、携帯電話機1は、送受信アンテナ111を含む通信処理部11と、メモリ12と、操作手段としてのキー入力部13と、スピーカ141およびマイクロフォン142を含む音声処理部14と、表示手段としての表示部15と、パネル入力部16と、制御手段としての制御部20とを有している。
以下、携帯電話機1を構成する各構成要素、および、携帯電話機1が実行する処理内容について述べる。
As shown in FIG. 1, the mobile phone 1 includes a communication processing unit 11 including a transmission / reception antenna 111, a memory 12, a key input unit 13 as an operation unit, an audio processing unit 14 including a speaker 141 and a microphone 142, A display unit 15 as a display unit, a panel input unit 16, and a control unit 20 as a control unit are provided.
Hereafter, each component which comprises the mobile telephone 1, and the processing content which the mobile telephone 1 performs are described.

通信処理部11は、基地局を介した無線通信動作、たとえば、電話番号の発呼動作や電子メールの送受信動作などを行う。
通信処理部11は、送受信アンテナ111を含んで構成され、電波を利用した無線通信で行うために、制御部20で処理された音声情報、電子メール等を変調して送受信アンテナ111により図示しない基地局に送信する。
また、通信処理部11は、基地局から無線により送信され、送受信アンテナ111で受信した電子メールや音声情報等の各種情報を復調して制御部20に出力する。たとえば、後述する表示部15に表示する画像のデータを、通信処理部11による無線通信を介して取得してもよい。
なお、送受信アンテナ111は、携帯電話機1の本体に内蔵され、図2において外部に露出されていない。
The communication processing unit 11 performs a wireless communication operation via the base station, for example, a telephone number calling operation or an e-mail transmission / reception operation.
The communication processing unit 11 is configured to include a transmission / reception antenna 111. In order to perform wireless communication using radio waves, the communication processing unit 11 modulates voice information, e-mail, and the like processed by the control unit 20, and a base (not shown) by the transmission / reception antenna 111. Send to the station.
Further, the communication processing unit 11 demodulates various information such as e-mail and voice information transmitted from the base station by radio and received by the transmission / reception antenna 111 and outputs the demodulated information to the control unit 20. For example, image data to be displayed on the display unit 15 to be described later may be acquired via wireless communication by the communication processing unit 11.
The transmission / reception antenna 111 is built in the main body of the mobile phone 1 and is not exposed to the outside in FIG.

メモリ12は、EEPROM等の不揮発性メモリを含んで構成され、通話やメールの送受信のための制御プログラム、インターネットブラウザ、メッセージデータ、名前および電話番号が登録されたアドレス帳などを記憶する。
また、メモリ12は、後述するオブジェクト抽出処理の基礎となる画像データを記憶する。携帯電話機1は、かかる画像データを、たとえば、通信処理部11を介して無線通信により取得してメモリ12に記憶する。
メモリ12は、制御部20により抽出されるオブジェクトに関するデータを記憶する。オブジェクトに関するデータには、後述するオブジェクトの輪郭位置情報や指定領域、割り付けられた機能が、各オブジェクト毎に存在する。
The memory 12 includes a non-volatile memory such as an EEPROM, and stores a control program for transmitting and receiving calls and mails, an Internet browser, message data, an address book in which names and telephone numbers are registered.
Further, the memory 12 stores image data that is the basis of an object extraction process described later. The mobile phone 1 acquires the image data by wireless communication via the communication processing unit 11 and stores it in the memory 12, for example.
The memory 12 stores data related to the object extracted by the control unit 20. In the data related to the object, there are object contour position information, a designated area, and an assigned function, which will be described later, for each object.

キー入力部13は、終了(終話)/電源キー、開始(発呼)キー、数字等に対応した複数のキー等を有し、これらのキーがユーザにより操作されることにより、ユーザからの入力情報を制御部20に出力する。
キー入力部13は、図2に示すように、4×3のマトリックス上に、上記複数のキーを配置する。
本実施形態においては、ユーザがキー入力部13の中の所定のキーを押下(操作)することにより、後述するオブジェクト抽出処理、割付け処理等が開始される。
The key input unit 13 has an end (end call) / power key, a start (call) key, a plurality of keys corresponding to numbers, and the like. When these keys are operated by the user, Input information is output to the control unit 20.
As shown in FIG. 2, the key input unit 13 arranges the plurality of keys on a 4 × 3 matrix.
In the present embodiment, when a user presses (operates) a predetermined key in the key input unit 13, an object extraction process, an allocation process, and the like, which will be described later, are started.

音声処理部14は、音声処理回路を有し、通話機能のために音声出力を行うスピーカ141と音声入力を行うマイクロフォン142とが接続されている。
音声処理部14は、マイクロフォン142により集音した音声に対して所定の処理を行って制御部20に供給する。
また、音声処理部14は、制御部20により供給された音声情報に対して所定の処理を行ってスピーカ141から出力させる。
The audio processing unit 14 includes an audio processing circuit, and is connected to a speaker 141 that outputs audio for a call function and a microphone 142 that inputs audio.
The sound processing unit 14 performs predetermined processing on the sound collected by the microphone 142 and supplies the processed sound to the control unit 20.
Further, the audio processing unit 14 performs predetermined processing on the audio information supplied from the control unit 20 and outputs the audio information from the speaker 141.

表示部15は、液晶表示装置(LCD)等の表示デバイスを有し、メモリ12が記憶する画像データを表示可能に構成される。   The display unit 15 includes a display device such as a liquid crystal display (LCD) and is configured to be able to display image data stored in the memory 12.

パネル入力部16は、いわゆるタッチパネル式の入力部であり、ユーザが表示部15のLCD等に触れる(タッチ)ことにより、ユーザがタッチした位置を検出し、ユーザの入力情報として制御部20へ出力する。
タッチパネル式の入力方式としては、表示パネルの表面電荷の変化をとらえて位置検出を行う静電容量方式、表示パネル表面に取り付けたフィルム面の電位により位置検出を行う抵抗膜方式など様々な技術をパネル入力部16に適用することが可能である。
The panel input unit 16 is a so-called touch panel type input unit, and detects a position touched by the user by touching (touching) the LCD or the like of the display unit 15 and outputs the detected position to the control unit 20 as user input information. To do.
There are various touch-panel input methods, such as a capacitance method that detects the change in the surface charge of the display panel and a resistive film method that detects the position using the potential of the film surface attached to the display panel surface. It can be applied to the panel input unit 16.

制御部20は、マイクロコンピュータを主体として構成され、携帯電話機1の全体の制御を行う。たとえば、制御部20は、通信処理部11における各種情報の無線による送受信の制御、音声処理部14に対する音声情報の処理、表示部15への情報の表示制御、キー入力部13およびパネル入力部16からの入力情報に応じた処理、メモリ12に対するアクセス制御等を行う。   The control unit 20 is composed mainly of a microcomputer and controls the entire mobile phone 1. For example, the control unit 20 controls transmission / reception of various types of information in the communication processing unit 11, processes audio information for the audio processing unit 14, controls display of information on the display unit 15, the key input unit 13 and the panel input unit 16. The process according to the input information from, the access control with respect to the memory 12, etc. are performed.

さらに、制御部20は、画像データに基づくオブジェクト抽出処理、抽出したオブジェクトに対する割付け処理、および、オブジェクトの指定領域の決定処理を行う。
以下、制御部20が実行する上記処理について順に説明する。
Further, the control unit 20 performs an object extraction process based on the image data, an allocation process for the extracted object, and a process for determining a designated area of the object.
Hereinafter, the processing executed by the control unit 20 will be described in order.

オブジェクト抽出処理
まず、制御部20は、メモリ12が記憶する画像データに基づいて、画像を表示部15に表示させるとともに、表示された画像に対してオブジェクト抽出処理を行う。
図3は、オブジェクト抽出処理について説明するための画像の一例である。
オブジェクトの抽出処理の元データとなる画像は、たとえば、カメラ機能が内蔵されている場合には当該カメラ撮影により得られた画像でもよいし、電子メールに添付された画像、メモリカード等の外部メディアから読み込まれた画像、通信デバイス(赤外線通信,短距離通信等)を介したデータ通信により得られた画像、インターネットの任意のWEB上からダウンロードされた画像でもよい。
かかる画像データが一旦メモリ12に記憶され、制御部20によりメモリ12から読み出されて、表示部15に表示される。その際には、表示部15の画面サイズに最適化されるように、必要に応じて、元データとなる画像が拡大/縮小されて表示される。
Object Extraction Processing First, the control unit 20 displays an image on the display unit 15 based on the image data stored in the memory 12, and performs object extraction processing on the displayed image.
FIG. 3 is an example of an image for explaining the object extraction process.
For example, when the camera function is built in, the image that is the original data of the object extraction process may be an image obtained by shooting with the camera, an image attached to an e-mail, or an external medium such as a memory card. An image read from the Internet, an image obtained by data communication via a communication device (infrared communication, short-range communication, etc.), or an image downloaded from any WEB on the Internet may be used.
Such image data is temporarily stored in the memory 12, read from the memory 12 by the control unit 20, and displayed on the display unit 15. At that time, the image as the original data is enlarged / reduced and displayed as necessary so as to be optimized to the screen size of the display unit 15.

オブジェクト抽出処理では、表示部15に表示された画像上に表現されたオブジェクト(独立した対象)を、画像から抽出することが行われる。たとえば、図3に例示する画像では、オブジェクトOBJ1(「太陽」)と、オブジェクトOBJ2,OBJ3(「雲」)と、オブジェクトOBJ4,OBJ5(「木」)と、オブジェクトOBJ6(「家」)の6個のオブジェクトが含まれており、これらのオブジェクトを画像から抽出することがオブジェクト抽出処理により行われる。   In the object extraction process, an object (independent target) expressed on the image displayed on the display unit 15 is extracted from the image. For example, in the image illustrated in FIG. 3, the object OBJ1 (“sun”), the objects OBJ2 and OBJ3 (“cloud”), the objects OBJ4 and OBJ5 (“tree”), and the object OBJ6 (“house”) 6 Objects are included, and extracting these objects from the image is performed by object extraction processing.

オブジェクト抽出処理は、表示部15に表示された画像に対して、輪郭抽出処理(エッジ抽出処理)を行うことにより実行される。
輪郭抽出処理(エッジ抽出処理)は、画像の輝度値や色の濃淡に着目し、これらのデータ(色データ)が急激に変化するエッジ部分を検出することにより行われる。
具体的には、隣接画素間の色データの差分値に基づく色データの1次微分(グラディエント)の大きさと方向から、輪郭の強さと方向を算出する方法、さらに、輪郭の強さを検出するために2次微分(ラプラシアン)を用いる方法、等の技術を適用することができる。また、表示された画像の中から、同系色に着目して輪郭抽出を行ってもよい。
オブジェクト抽出処理により、表示部15に表示された画像中の各オブジェクトが抽出される。
The object extraction process is executed by performing an outline extraction process (edge extraction process) on the image displayed on the display unit 15.
The contour extraction process (edge extraction process) is performed by paying attention to the luminance value and color density of the image and detecting edge portions where these data (color data) change rapidly.
Specifically, a method for calculating the strength and direction of the contour from the magnitude and direction of the primary differentiation (gradient) of the color data based on the difference value of the color data between adjacent pixels, and further detecting the strength of the contour. Therefore, techniques such as a method using a second derivative (Laplacian) can be applied. In addition, contour extraction may be performed by focusing on similar colors from the displayed image.
By the object extraction process, each object in the image displayed on the display unit 15 is extracted.

ブロック単位のオブジェクト抽出処理
制御部20は、後述するオブジェクト割付け処理のために、表示部15を所定の数に分割した各ブロック毎に、上述したオブジェクト抽出処理を実行する。
図4は、図3に例示した画像を表示する表示部15を、4×3のブロックに分割した場合について例示する。なお、以下の説明においては、縦のブロック座標をX,横のブロック座標をYとして、表示部15中においては、ブロック座標として、ブロックB(X,Y)と表現する。
図4においては、キー入力部13が有する4×3のキー配置(図2参照)に一致させるように、オブジェクト抽出処理のためのブロックを定義している。
The block-unit object extraction processing control unit 20 executes the above-described object extraction processing for each block obtained by dividing the display unit 15 into a predetermined number for object allocation processing described later.
FIG. 4 illustrates a case where the display unit 15 that displays the image illustrated in FIG. 3 is divided into 4 × 3 blocks. In the following description, the vertical block coordinate is X, the horizontal block coordinate is Y, and in the display unit 15, the block coordinate is expressed as a block B (X, Y).
In FIG. 4, blocks for object extraction processing are defined so as to match the 4 × 3 key layout (see FIG. 2) of the key input unit 13.

オブジェクト抽出処理は、B(1,1),B(1,2),B(1,3),B(2,1),…,の各ブロックの順に行われる。
図4に示す例では、ブロックB(1,1)においてオブジェクト抽出処理を行うことにより、オブジェクトOBJ1が抽出され、また、ブロックB(4,1)においてオブジェクト抽出処理を行うことにより、オブジェクトOBJ4が抽出され、また、ブロックB(4,3)においてオブジェクト抽出処理を行うことにより、オブジェクトOBJ6が抽出される。
なお、同一のブロックにおいて、複数のオブジェクトが抽出された場合には、抽出された複数のオブジェクトの中で最大のオブジェクトを抽出する。
The object extraction processing is performed in the order of each block of B (1, 1), B (1, 2), B (1, 3), B (2, 1),.
In the example shown in FIG. 4, the object OBJ1 is extracted by performing the object extraction process in the block B (1, 1), and the object OBJ4 is extracted by performing the object extraction process in the block B (4, 1). The object OBJ6 is extracted by performing the object extraction process in the block B (4, 3).
When a plurality of objects are extracted in the same block, the largest object is extracted from the plurality of extracted objects.

オブジェクト抽出処理においては、閉領域をオブジェクトとして認識する。
オブジェクトが複数のブロックに跨がっているために、1つのブロックにおけるオブジェクト抽出処理では閉領域として認識されなかった場合には、そのオブジェクトは無視され、抽出されない。
たとえば、図4に示すオブジェクトOBJ3は、すべての閉領域がブロックB(2,3)に収まっていないため、ブロックB(2,3)に対するオブジェクト抽出処理においては、オブジェクトとして抽出されない。
In the object extraction process, the closed region is recognized as an object.
Since the object is straddling a plurality of blocks, if the object extraction process in one block is not recognized as a closed region, the object is ignored and not extracted.
For example, the object OBJ3 shown in FIG. 4 is not extracted as an object in the object extraction process for the block B (2, 3) because all the closed areas do not fit in the block B (2, 3).

制御部20は、上記12ブロックに対して、それぞれオブジェクト抽出処理が終了させると、ブロック数を減少させて、再度各ブロックに対してオブジェクト抽出処理を行う。これにより、上記12ブロック分割では、1つのブロックにおけるオブジェクト抽出処理では閉領域として認識されなかった場合や、オブジェクトが存在しないブロックがあった場合でも、オブジェクトを抽出することが可能となる。   When the object extraction process is completed for each of the 12 blocks, the control unit 20 reduces the number of blocks and performs the object extraction process for each block again. Thereby, in the above 12-block division, it is possible to extract an object even when the object extraction process in one block is not recognized as a closed region or there is a block in which no object exists.

図5は、図3に例示した画像を表示する表示部15を、2×2のブロックに分割した場合について例示する。
図5においては、オブジェクトOBJ1,OBJ4,OBJ6については既に上記12ブロックでのオブジェクト抽出処理により抽出済であるので、図示していない。
制御部20は、12ブロックの場合と同様に、順に、ブロックB(1,1)〜B(2,2)についてオブジェクト抽出処理を行い、ブロックB(1,1)からオブジェクトOBJ2を、ブロックB(1,2)からオブジェクトOBJ3を、ブロックB(2,1)からオブジェクトOBJ5を、それぞれ抽出する。
FIG. 5 illustrates a case where the display unit 15 that displays the image illustrated in FIG. 3 is divided into 2 × 2 blocks.
In FIG. 5, the objects OBJ1, OBJ4, and OBJ6 are not shown because they have already been extracted by the object extraction process in the 12 blocks.
As in the case of 12 blocks, the control unit 20 sequentially performs object extraction processing on the blocks B (1, 1) to B (2, 2), and the object OBJ2 is transferred from the block B (1, 1) to the block B. The object OBJ3 is extracted from (1, 2), and the object OBJ5 is extracted from the block B (2, 1).

以上のように、各ブロック毎にオブジェクトを抽出すると、制御部20は、各オブジェクトの輪郭についての位置情報(輪郭位置情報)をメモリ12に記憶させる。   As described above, when an object is extracted for each block, the control unit 20 causes the memory 12 to store position information (contour position information) about the contour of each object.

オブジェクトの割付け処理
表示部15に表示された画像からオブジェクトが抽出されると、制御部20は、抽出された各オブジェクトに対する機能割付け処理を行う。
機能割付け処理は、様々な方法をとることができる。
When an object is extracted from the image displayed on the object assignment processing display unit 15, the control unit 20 performs a function assignment process on each extracted object.
The function allocation process can take various methods.

(A)キー入力部13のキーへの割付け処理
上述したように、オブジェクト抽出処理では、キー入力部13が有する4×3のキー配置(図2参照)に一致させるように、表示部15の画面をブロック毎に分割して実行したので、制御部20は、各ブロック毎に抽出されたオブジェクトをそれぞれ対応するキーに割り付ける。
たとえば、制御部20は、図2に示すキー入力部13の4×3のキー配置において、左列の最上部のキーが数字の「1」のためのキーである場合には、図4に示す画像において、ブロックB(1,1)から抽出されたオブジェクトOBJ1(「太陽」)を割り付ける。
(A) Key allocation process of key input unit 13 As described above, in the object extraction process, the display unit 15 is configured to match the 4 × 3 key layout (see FIG. 2) of the key input unit 13. Since the screen is divided and executed for each block, the control unit 20 assigns the object extracted for each block to the corresponding key.
For example, in the 4 × 3 key arrangement of the key input unit 13 shown in FIG. 2, the control unit 20 determines that the uppermost key in the left column is a key for the number “1”. In the illustrated image, the object OBJ1 (“sun”) extracted from the block B (1, 1) is allocated.

制御部20は、パネル入力部16から入力される入力位置情報と、メモリ12が記憶する各オブジェクトの輪郭位置情報とを比較し、入力位置がオブジェクトの輪郭位置が示す領域内である場合には、該当するオブジェクトに割り付けられたキーが操作されたものと判断し、当該キーに対する処理を行う。
たとえば、図4において、ユーザが表示部15上に表示された画像の「太陽」の部分を指等でタッチすると、パネル入力部16は、表示部15上に表示された画像の「太陽」の部分に相当する入力位置を検出して、検出した入力位置情報を制御部20に出力し、制御部20は、入力位置がオブジェクトの輪郭位置内となるオブジェクトをメモリ12から検索する。その結果、オブジェクトOBJ1が検索され、オブジェクトOBJ1に割り付けられた数字キー「1」に応じた入力処理を行う。
The control unit 20 compares the input position information input from the panel input unit 16 with the contour position information of each object stored in the memory 12, and when the input position is within the area indicated by the contour position of the object. Then, it is determined that the key assigned to the corresponding object has been operated, and processing for the key is performed.
For example, in FIG. 4, when the user touches the “sun” portion of the image displayed on the display unit 15 with a finger or the like, the panel input unit 16 displays the “sun” of the image displayed on the display unit 15. An input position corresponding to the portion is detected, and the detected input position information is output to the control unit 20. The control unit 20 searches the memory 12 for an object whose input position is within the contour position of the object. As a result, the object OBJ1 is searched and input processing corresponding to the numeric key “1” assigned to the object OBJ1 is performed.

なお、4×3のブロックのうち、一部のブロックについてオブジェクトが抽出できなかった場合には、上述したように、たとえば、2×2のブロック構成により再度抽出処理を行うが、その際に抽出されたオブジェクトについては、4×3のブロックにおいて何もオブジェクトが抽出されなかったブロックに対応するキーに割付けが行われる。
ブロック数を減少させても、キー入力部13のすべてのキーに対して割付けがなされない場合には、表示部15を介してユーザに対してその旨を通知し、他の画像をオブジェクト抽出のために選択させるように構成してもよい。
If objects cannot be extracted for some of the 4 × 3 blocks, the extraction process is performed again, for example, with a 2 × 2 block configuration as described above. The assigned object is assigned to the key corresponding to the block in which no object is extracted in the 4 × 3 block.
If all the keys of the key input unit 13 are not allocated even if the number of blocks is reduced, the user is notified via the display unit 15 and other images are extracted. You may comprise so that it may select.

(B)所定の機能に対する割付け処理
制御部20は、抽出したオブジェクトを、上述した単一のキーへの割付け処理だけでなく、キー入力部13の複数のキーの組み合わせとして割り付けたり、メニューボタンとして割り付けたりすることも可能に構成される。その際には、ユーザとの対話処理により、抽出した各オブジェクトに対して割付けがなされる。
たとえば、オブジェクト抽出処理の後に、抽出した各オブジェクトに対して、携帯電話機1の音量設定やゲーム等のアプリケーションプログラムの起動指示、目覚まし時計の設定などといった、ユーザが良く使う機能を対応付ける。各オブジェクトに対して対応付けられたこれらの機能は、メモリ12においてオブジェクトと関連付けて管理される。
オブジェクト抽出処理の基礎とした画像は、自動的に待受画面として設定するように構成してもよい。そして、ユーザが待受画面上の画像を指定すると、制御部20は、当該指定に係る入力位置情報と、メモリ12内の各オブジェクトの輪郭位置情報とを比較して指定に係るオブジェクトを特定し、特定したオブジェクトに対応付けられた機能を実行する。たとえば、図3に示す画像中オブジェクトOBJ4(「木」)に対して、「ゲームの起動」という機能を割り付けたならば、画面上でユーザがオブジェクトOBJ4を指定することにより、ゲームが起動され、ゲームの開始画面に表示が切り替わるように、制御部20は制御する。
なお、オブジェクト抽出段階で、キー入力部13と同様の配列に対応する形でオブジェクトが抽出できていた場合には、キー入力部13の配列とオブジェクトの位置とを関連付け、タッチパネルを用いることなく、キー入力部13に各キーを押下することにより、関連付けられたオブジェクトが指定されたと制御部20が認識し、当該オブジェクトに割り当てられた機能を実行するようにしてもよい。
(B) The assignment processing control unit 20 for a predetermined function assigns the extracted object not only to the above-described assignment processing to a single key but also as a combination of a plurality of keys of the key input unit 13 or as a menu button. It can also be assigned. At that time, the extracted objects are assigned by interactive processing with the user.
For example, after the object extraction process, functions that are frequently used by the user, such as setting the volume of the mobile phone 1, starting an application program such as a game, and setting an alarm clock are associated with each extracted object. These functions associated with each object are managed in the memory 12 in association with the object.
The image based on the object extraction process may be configured to be automatically set as a standby screen. When the user designates an image on the standby screen, the control unit 20 compares the input position information related to the designation with the contour position information of each object in the memory 12 to identify the object related to the designation. The function associated with the identified object is executed. For example, if the function “launch game” is assigned to the object OBJ4 (“Thu”) in the image shown in FIG. 3, the game is activated by designating the object OBJ4 on the screen. The control unit 20 performs control so that the display is switched to the game start screen.
In the object extraction stage, if the object has been extracted in a form corresponding to the same arrangement as the key input unit 13, the arrangement of the key input unit 13 and the position of the object are associated with each other without using the touch panel. By pressing each key on the key input unit 13, the control unit 20 may recognize that an associated object has been designated and execute a function assigned to the object.

指定領域の決定処理
上述したように、制御部20は、パネル入力部16から入力される入力位置情報と、メモリ12が記憶する各オブジェクトの輪郭位置情報とを比較し、入力位置がオブジェクトの輪郭位置が示す領域内である場合には、該当するオブジェクトに割り付けられたキーが操作されたものと判断するが、一般に、オブジェクトの形状は、丸形や四角形等の単純な形状ではないため、ユーザにとって画面上のオブジェクトをタッチしづらい場合がある。そこで、制御部20は、各オブジェクトに対して、ユーザからの入力を有効と判断するための指定領域を決定する。
すなわち、制御部20は、パネル入力部16から入力される入力位置と、各オブジェクトの指定領域とを比較し、入力位置を包含する指定領域を有するオブジェクトが指定されたと判断し、指定されたオブジェクトに応じた入力処理を実行する。
以下、各オブジェクトに対する指定領域の算出方法について述べる。
As determination processing above specified area, the control unit 20 includes an input position information inputted from the panel input unit 16, compares the contour position information of each object memory 12 stores the input position of an object contour If it is within the area indicated by the position, it is determined that the key assigned to the corresponding object has been operated. In general, however, the shape of the object is not a simple shape such as a round shape or a square shape. It may be difficult for an object on the screen to touch. Therefore, the control unit 20 determines a designated area for determining that the input from the user is valid for each object.
That is, the control unit 20 compares the input position input from the panel input unit 16 with the designated area of each object, determines that an object having a designated area that includes the input position is designated, and designates the designated object. The input process according to is executed.
A method for calculating the designated area for each object will be described below.

図6は、オブジェクトの指定領域の算出方法を説明するための図である。図中、実線で表されたオブジェクトOBJは、すでに制御部20によって抽出されており、その輪郭位置情報がメモリ12に記憶されている。
まず、制御部20は、オブジェクトの輪郭位置情報に基づいて、オブジェクトの輪郭を収容可能な最小の四角形を算出する。具体的には、図6における四角形REC1の各点P11〜14の画面上のX,Y座標を算出する。
次に、制御部20は、オブジェクトの輪郭位置情報に基づいて、オブジェクトの輪郭範囲に収容可能な最大の四角形を算出する。具体的には、図6における四角形REC2の各点P21〜24の画面上のX,Y座標を算出する。
FIG. 6 is a diagram for explaining a method of calculating the designated area of the object. In the drawing, an object OBJ represented by a solid line has already been extracted by the control unit 20, and its contour position information is stored in the memory 12.
First, the control unit 20 calculates the smallest rectangle that can accommodate the contour of the object based on the contour position information of the object. Specifically, the X and Y coordinates on the screen of the points P11 to P14 of the quadrangle REC1 in FIG. 6 are calculated.
Next, the control unit 20 calculates the maximum rectangle that can be accommodated in the contour range of the object based on the contour position information of the object. Specifically, the X and Y coordinates on the screen of the points P21 to P24 of the quadrangle REC2 in FIG. 6 are calculated.

以上のように算出された点P11〜14および点P21〜24に基づいて、オブジェクトOBJの指定領域を規定する点P31〜34を下式(1)〜(8)の通り算出する。

X(P31)=(X(P11)+X(P21))/2 … (1)
Y(P31)=(Y(P11)+Y(P21))/2 … (2)
X(P32)=(X(P12)+X(P22))/2 … (3)
Y(P32)=(Y(P12)+Y(P22))/2 … (4)
X(P33)=(X(P13)+X(P23))/2 … (5)
Y(P33)=(Y(P13)+Y(P23))/2 … (6)
X(P34)=(X(P14)+X(P24))/2 … (7)
Y(P34)=(Y(P14)+Y(P24))/2 … (8)

なお、X(PN),Y(PN)は、それぞれ点PNのX,Y座標を示す。
Based on the points P11 to P14 and points P21 to P24 calculated as described above, points P31 to P34 that define the designated area of the object OBJ are calculated as in the following equations (1) to (8).

X (P31) = (X (P11) + X (P21)) / 2 (1)
Y (P31) = (Y (P11) + Y (P21)) / 2 (2)
X (P32) = (X (P12) + X (P22)) / 2 (3)
Y (P32) = (Y (P12) + Y (P22)) / 2 (4)
X (P33) = (X (P13) + X (P23)) / 2 (5)
Y (P33) = (Y (P13) + Y (P23)) / 2 (6)
X (P34) = (X (P14) + X (P24)) / 2 (7)
Y (P34) = (Y (P14) + Y (P24)) / 2 (8)

X (PN) and Y (PN) indicate the X and Y coordinates of the point PN, respectively.

以上のようにして算出された点P31〜34により、指定領域を示す四角形REC3が決定され、指定領域を示す各点P31〜34は、各オブジェクトに対応付けられてメモリ12に記憶される。
なお、上記式(1)〜(8)では、指定領域を示す四角形REC3を、図6における四角形REC1およびREC2の平均の大きさになるように算出したが、これに拘泥されるものではなく、四角形REC1およびREC2の間の位置となる四角形であればよい。
The rectangle REC3 indicating the designated area is determined based on the points P31 to 34 calculated as described above, and the points P31 to P34 indicating the designated area are stored in the memory 12 in association with the objects.
In the above formulas (1) to (8), the quadrangular REC3 indicating the designated area is calculated so as to be the average size of the quadrangles REC1 and REC2 in FIG. 6, but is not limited to this. Any square may be used as long as it is positioned between the squares REC1 and REC2.

図7は、制御部20が実行する指定領域の算出例を示す。
図7においては、図3において例示した画像から抽出されたオブジェクトOBJ2(「雲」)の指定領域(図中四角形REC3の範囲内)を算出したものである。
制御部20は、パネル入力部16から入力される入力位置が、図7における四角形REC3の範囲内である場合には、オブジェクトOBJ2が指定されたと判断して、オブジェクトOBJ2に割り付けられた入力処理を実行する。
FIG. 7 shows an example of calculation of the designated area executed by the control unit 20.
In FIG. 7, the designated area (within the rectangle REC3 in the figure) of the object OBJ2 (“cloud”) extracted from the image illustrated in FIG. 3 is calculated.
When the input position input from the panel input unit 16 is within the range of the rectangle REC3 in FIG. 7, the control unit 20 determines that the object OBJ2 has been designated, and performs the input process assigned to the object OBJ2. Execute.

以上、制御部20により実行される複数の処理について説明した。
次に、図8に示すフローチャートに関連付けて、本実施形態に係る携帯電話機1が実行する一連の処理について述べる。
図8に示すフローチャートでは、ユーザの操作により所望の画像が表示されてから、画像内のオブジェクトに機能割付けを行うまでの一連の処理を示す。
まず、ユーザの操作により所望の画像が表示部15に表示された状態で、キー入力部13の所定のキーが押下(操作)されると(ステップST10)、制御部20は、オブジェクトの抽出処理を開始する(ステップST11)。
オブジェクト抽出処理のための画面分割ブロック数は、4×3の12ブロックであり、各ブロック毎にオブジェクト抽出を行う。
Heretofore, a plurality of processes executed by the control unit 20 have been described.
Next, a series of processing executed by the mobile phone 1 according to the present embodiment will be described in association with the flowchart shown in FIG.
The flowchart shown in FIG. 8 shows a series of processing from when a desired image is displayed by a user operation until function assignment is performed on objects in the image.
First, when a predetermined key of the key input unit 13 is pressed (operated) in a state where a desired image is displayed on the display unit 15 by a user operation (step ST10), the control unit 20 performs object extraction processing. Is started (step ST11).
The number of screen division blocks for object extraction processing is 4 × 3 12 blocks, and object extraction is performed for each block.

12ブロックですべてのオブジェクトが抽出できない場合には、ブロックの範囲を拡大処理し(ステップST13)、オブジェクト抽出処理を行う(ステップST11)。たとえば、2×2の4ブロックによりオブジェクトの抽出を行う。その際、12ブロックでのオブジェクト抽出処理ですでに抽出されたオブジェクトは無視される。
以上の処理の間、表示部15に表示された画像からオブジェクトが抽出される毎に、制御部20は、抽出された各オブジェクトの輪郭位置情報をメモリ12に記憶させる。
If all the objects cannot be extracted in 12 blocks, the range of the block is enlarged (step ST13), and the object extraction process is performed (step ST11). For example, an object is extracted by 2 × 2 4 blocks. At that time, objects already extracted in the object extraction process in 12 blocks are ignored.
During the above processing, every time an object is extracted from the image displayed on the display unit 15, the control unit 20 stores the extracted contour position information of each object in the memory 12.

すべてのオブジェクトが抽出されると(ステップST12)、制御部20は、メモリ12に記憶された各オブジェクトの輪郭位置情報に基づいて、指定領域を算出する。
すなわち、制御部20は、オブジェクトの輪郭位置情報に基づいて、オブジェクトの輪郭を収容可能な最小の四角形(REC1)を算出する(ステップST14)。次に、制御部20は、オブジェクトの輪郭位置情報に基づいて、オブジェクトの輪郭範囲に収容可能な最大の四角形(REC2)を算出する(ステップST15)。
そして、制御部20は、ステップST14で算出された四角形REC1とステップST15で算出された四角形REC2とに基づいて、これらの中間の大きさの四角形REC3を算出し、算出した四角形REC3を構成する各点の座標データをメモリ12に記憶させる(ステップST16)。
When all the objects are extracted (step ST12), the control unit 20 calculates the designated area based on the contour position information of each object stored in the memory 12.
That is, the control unit 20 calculates the smallest quadrangle (REC1) that can accommodate the contour of the object based on the contour position information of the object (step ST14). Next, the control unit 20 calculates the maximum rectangle (REC2) that can be accommodated in the contour range of the object based on the contour position information of the object (step ST15).
Then, the control unit 20 calculates a quadrangle REC3 having an intermediate size based on the quadrangle REC1 calculated in Step ST14 and the quadrangle REC2 calculated in Step ST15, and sets the quadrangle REC3. Point coordinate data is stored in the memory 12 (step ST16).

以上ステップST14〜16により、抽出された各オブジェクトの指定領域が算出されると、制御部20は、次に、オブジェクトの割付け処理を行う(ステップST17)。
たとえば、制御部20は、ステップST11において各ブロック毎に抽出されたオブジェクトをそれぞれ対応するキーに割り付ける。
また、制御部20は、ユーザとの対話処理により、抽出したオブジェクトを、キー入力部13の複数のキーの組み合わせとして割り付けたり、メニューボタンとして割り付けたりしてもよい。これにより、各オブジェクトがユーザからの入力処理に割り付けられることになる。
ステップST17において、入力処理が割り付けられたオブジェクトを、入力処理が割り付けられていないオブジェクトと、区別して表示させる。たとえば、オブジェクトの表示色や輝度、濃淡などの表示形態を区別して表示させる。
When the designated area of each extracted object is calculated in steps ST14 to ST16, the control unit 20 next performs object allocation processing (step ST17).
For example, the control unit 20 assigns the object extracted for each block in step ST11 to the corresponding key.
Further, the control unit 20 may allocate the extracted object as a combination of a plurality of keys of the key input unit 13 or as a menu button by interactive processing with the user. As a result, each object is assigned to input processing from the user.
In step ST17, the object to which the input process is assigned is displayed separately from the object to which the input process is not assigned. For example, the display form such as the display color, brightness, and shade of the object is distinguished and displayed.

以上図8に示すフローチャートの処理が行われた後、ユーザが表示部15に表示された画像中のオブジェクトを画面上でタッチすると、パネル入力部16はタッチされた位置に応じた入力位置情報を制御部20へ出力し、制御部20は、メモリ12が記憶する各オブジェクトの輪郭位置情報とを比較し、入力位置がオブジェクトの指定領域内である場合には、該当するオブジェクトに割り付けられた入力処理(たとえば、キーの押下)がなされたものと判断し、当該入力処理が行われる。   After the processing of the flowchart shown in FIG. 8 is performed, when the user touches an object in the image displayed on the display unit 15 on the screen, the panel input unit 16 displays input position information corresponding to the touched position. Output to the control unit 20, the control unit 20 compares the contour position information of each object stored in the memory 12, and if the input position is within the specified area of the object, the input assigned to the corresponding object It is determined that processing (for example, key pressing) has been performed, and the input processing is performed.

以上説明したように、本実施形態に係る携帯電話機1によれば、上述した処理を行うことにより、ユーザ所望の任意の画像に基づいて抽出されたオブジェクトに機能を割付けて、ユーザ独自のマンマシンインタフェースを構築することが可能となる。
また、ユーザにとっては、キー入力部を使用することなく、画面上のオブジェクトを直接指定して入力操作ができるので、操作の快適性が向上する。
As described above, according to the mobile phone 1 according to the present embodiment, by performing the above-described processing, a function is assigned to an object extracted based on an arbitrary image desired by the user, and the user's own man-machine An interface can be constructed.
Further, since the user can perform an input operation by directly specifying an object on the screen without using the key input unit, the comfort of the operation is improved.

本実施形態に係る携帯電話機1によれば、画面をブロック毎に分割し、分割したブロック毎にオブジェクトを抽出するので、画面上にバランスよく散在する複数のオブジェクトを抽出でき、上記インタフェースの構築がしやすい。
その際、ブロックの分割態様を、キー入力部のキー配置に一致させ、各キーに応じた機能を各ブロックから抽出されたオブジェクトに割り付けるので、ユーザにとってオブジェクトに対応するキーが認識しやすい。
さらに、分割したブロックにおいて、オブジェクトが抽出できない場合には、分割数を減少させたうえで、再度オブジェクトを抽出するので、最初の分割時において抽出できなかったオブジェクトを抽出させることができ、上記同様、画面上にバランスよく散在する複数のオブジェクトを抽出でき、上記インタフェースの構築がしやすい。
According to the mobile phone 1 according to the present embodiment, the screen is divided into blocks, and an object is extracted for each divided block. Therefore, a plurality of objects scattered in a balanced manner on the screen can be extracted, and the above-described interface can be constructed. It's easy to do.
At this time, the block division mode is matched with the key arrangement of the key input unit, and the function corresponding to each key is assigned to the object extracted from each block, so that the user can easily recognize the key corresponding to the object.
Furthermore, if the object cannot be extracted in the divided block, the object is extracted again after reducing the number of divisions, so that the object that could not be extracted at the time of the first division can be extracted. It is possible to extract a plurality of objects scattered in a balanced manner on the screen, and it is easy to construct the interface.

本実施形態に係る携帯電話機1によれば、抽出したオブジェクトの指定領域を、オブジェクトの輪郭に応じた四角形としたので、オブジェクトが複雑な形状であっても、パネル入力部16を通したオブジェクトの指定が容易となる。   According to the mobile phone 1 according to the present embodiment, since the designated area of the extracted object is a quadrangle corresponding to the outline of the object, even if the object has a complicated shape, the object that has passed through the panel input unit 16 is displayed. Specification becomes easy.

本実施形態に係る携帯電話機1によれば、抽出したオブジェクトのうち、機能が割り付けられたオブジェクトを、機能が割り付けられていないオブジェクトと区別して表示させるので、ユーザは、機能が割り付けられていないオブジェクトを指定するという無駄な操作をすることがない。   According to the mobile phone 1 according to the present embodiment, among the extracted objects, an object to which a function is assigned is displayed separately from an object to which no function is assigned. There is no wasteful operation of specifying.

なお、本発明は上述した本実施形態の内容に拘泥せず、本発明の要旨を変更しない範囲内で様々な改変が可能である。
たとえば、上記実施形態では、ユーザからの画面に対する指定方法として、タッチパネル方式のパネル入力部について述べたが、マウスやカーソル等を用いたポインティングデバイスによる入力を適用することもできる。
また、上記実施形態では、抽出した各オブジェクトを、キー入力部の4×3のキー配列に対応させたが、画面上に設定したソフトキーに対応させてもよい。
The present invention is not limited to the contents of the above-described embodiment, and various modifications can be made without departing from the scope of the present invention.
For example, in the above-described embodiment, the touch panel type panel input unit has been described as the designation method for the screen from the user. However, it is also possible to apply input by a pointing device using a mouse, a cursor, or the like.
In the above embodiment, each extracted object is associated with the 4 × 3 key array of the key input unit, but may be associated with a soft key set on the screen.

携帯電話機のシステム構成の一例を図解したブロック図である。1 is a block diagram illustrating an example of a system configuration of a mobile phone. 携帯電話機の外観の一例を図解した図である。It is the figure which illustrated an example of the external appearance of a mobile telephone. 携帯電話機の表示部が表示する画像の一例である。It is an example of the image which the display part of a mobile telephone displays. 携帯電話機の表示部を4×3に分割した一例である。It is an example which divided | segmented the display part of the mobile telephone into 4x3. 携帯電話機の表示部を2×2に分割した一例である。It is an example which divided | segmented the display part of the mobile telephone into 2x2. オブジェクトの指定領域の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the designated area | region of an object. オブジェクトの指定領域の算出例である。It is an example of calculation of the designated area of an object. 携帯電話機の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process of a mobile telephone.

符号の説明Explanation of symbols

1…携帯電話機
11…通信処理部
111…送受信アンテナ
12…メモリ
13…キー入力部
14…音声処理部
141…スピーカ
142…マイクロフォン
15…表示部
16…パネル入力部
20…制御部
DESCRIPTION OF SYMBOLS 1 ... Mobile telephone 11 ... Communication processing part 111 ... Transmission / reception antenna 12 ... Memory 13 ... Key input part 14 ... Audio | voice processing part 141 ... Speaker 142 ... Microphone 15 ... Display part 16 ... Panel input part 20 ... Control part

Claims (8)

少なくとも画像を表示する表示手段と、
操作手段と、
前記表示手段に所定の画像を表示させている間に、前記操作手段に対する所定の操作がなされると、前記所定の画像からオブジェクトを抽出し、抽出したオブジェクトに対して、一の機能を対応付け、さらに、オブジェクトが前記操作手段により指定されると、指定されたオブジェクトに対応付けられた機能を実行する制御手段と
を有する携帯端末装置。
Display means for displaying at least an image;
Operation means;
When a predetermined operation is performed on the operation unit while a predetermined image is displayed on the display unit, an object is extracted from the predetermined image, and one function is associated with the extracted object. And a control means for executing a function associated with the designated object when the object is designated by the operation means.
オブジェクトは、当該オブジェクトの表示領域を含んで構成される指定領域と関連付けられ、
前記制御手段は、
前記操作手段により前記指定領域が指定されることをもって、当該指定領域に関連付けられたオブジェクトが指定されたと判断する
ことを特徴とする請求項1記載の携帯端末装置。
An object is associated with a designated area that includes the display area of the object,
The control means includes
The portable terminal device according to claim 1, wherein when the designated area is designated by the operation means, it is determined that an object associated with the designated area is designated.
前記制御手段は、
オブジェクトの表示領域に収まる最大の矩形である第1の矩形と、前記オブジェクトの表示領域を収めることのできる最小の矩形である第2の矩形と、を算出し、
前記第1の矩形と前記第2の矩形の中間の大きさの矩形である第3の矩形内の領域を、指定領域として前記オブジェクトに関連付ける
ことを特徴とする請求項2記載の携帯端末装置。
The control means includes
Calculating a first rectangle that is the largest rectangle that can fit in the display area of the object and a second rectangle that is the smallest rectangle that can contain the display area of the object;
The portable terminal device according to claim 2, wherein an area in a third rectangle that is a rectangle having a size intermediate between the first rectangle and the second rectangle is associated with the object as a designated area.
前記制御手段は、
前記表示手段に所定の画像を表示させている場合に、前記操作手段に対する所定の操作がなされると、前記表示手段が表示可能な最大表示領域を所定数の複数の領域に分割し、前記複数の領域のそれぞれについて、オブジェクトを抽出する
ことを特徴とする請求項1乃至3のいずれか一に記載の携帯端末装置。
The control means includes
In a case where a predetermined image is displayed on the display means, when a predetermined operation is performed on the operation means, a maximum display area that can be displayed by the display means is divided into a predetermined number of areas. The mobile terminal device according to claim 1, wherein an object is extracted for each of the regions.
前記制御手段は、
前記複数の領域のうち少なくとも一の領域において、オブジェクトが抽出できない場合には、前記所定数を減少させる
ことを特徴とする請求項4記載の携帯端末装置。
The control means includes
The portable terminal device according to claim 4, wherein the predetermined number is decreased when an object cannot be extracted in at least one of the plurality of regions.
前記操作手段は、複数のキーを備え、
前記複数の領域の各領域は、前記複数のキーに対応して分割され、
前記制御手段は、
前記複数のキーのうち一のキーが操作されることをもって、前記一のキーに対応する領域から抽出されたオブジェクトが指定されたと判断する
ことを特徴とする請求項4記載の携帯端末装置。
The operating means comprises a plurality of keys,
Each region of the plurality of regions is divided corresponding to the plurality of keys,
The control means includes
The mobile terminal device according to claim 4, wherein when one key of the plurality of keys is operated, it is determined that an object extracted from an area corresponding to the one key is designated.
前記制御手段は、
入力処理に対応付けられたオブジェクトを、入力処理に対応付けられていないオブジェクトと、区別して表示させる
ことを特徴とする請求項1乃至6のいずれか一に記載の携帯端末装置。
The control means includes
The mobile terminal device according to claim 1, wherein an object associated with an input process is displayed separately from an object not associated with an input process.
表示部と、操作部と、を有する情報処理装置の入力処理方法であって、
前記表示部に所定の画像を表示させるステップと、
前記操作部に対する所定の操作を行うステップと、
前記所定の操作に応じて、前記所定の画像からオブジェクトを抽出するステップと、
抽出したオブジェクトに対して、一の機能を対応付けるステップと、
前記操作部によりオブジェクトを指定するステップと、
指定されたオブジェクトに対応付けられた機能を実行するステップと
を有することを特徴とする情報処理装置の入力処理方法。
An input processing method for an information processing apparatus having a display unit and an operation unit,
Displaying a predetermined image on the display unit;
Performing a predetermined operation on the operation unit;
Extracting an object from the predetermined image in response to the predetermined operation;
Associating a function with the extracted object;
Designating an object by the operation unit;
And a step of executing a function associated with the designated object.
JP2004024454A 2004-01-30 2004-01-30 Mobile terminal device and method for processing input to information processor Pending JP2005216170A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004024454A JP2005216170A (en) 2004-01-30 2004-01-30 Mobile terminal device and method for processing input to information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004024454A JP2005216170A (en) 2004-01-30 2004-01-30 Mobile terminal device and method for processing input to information processor

Publications (1)

Publication Number Publication Date
JP2005216170A true JP2005216170A (en) 2005-08-11

Family

ID=34907132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004024454A Pending JP2005216170A (en) 2004-01-30 2004-01-30 Mobile terminal device and method for processing input to information processor

Country Status (1)

Country Link
JP (1) JP2005216170A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008105488A1 (en) 2007-02-28 2008-09-04 Ntt Docomo, Inc. Information processing device and program
WO2008105487A1 (en) 2007-02-28 2008-09-04 Ntt Docomo, Inc. Information processing device and program
JP2012043359A (en) * 2010-08-23 2012-03-01 Kyocera Corp Portable terminal
JP6388744B1 (en) * 2017-09-08 2018-09-12 三菱電機株式会社 Ranging device and ranging method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008105488A1 (en) 2007-02-28 2008-09-04 Ntt Docomo, Inc. Information processing device and program
WO2008105487A1 (en) 2007-02-28 2008-09-04 Ntt Docomo, Inc. Information processing device and program
US8542192B2 (en) 2007-02-28 2013-09-24 Ntt Docomo, Inc. Information processing device and program
US8896538B2 (en) 2007-02-28 2014-11-25 Ntt Docomo, Inc. Information processing device and program
JP2012043359A (en) * 2010-08-23 2012-03-01 Kyocera Corp Portable terminal
JP6388744B1 (en) * 2017-09-08 2018-09-12 三菱電機株式会社 Ranging device and ranging method
WO2019049317A1 (en) * 2017-09-08 2019-03-14 三菱電機株式会社 Position correction device and position correction method
CN111052062A (en) * 2017-09-08 2020-04-21 三菱电机株式会社 Position correction device and position correction method

Similar Documents

Publication Publication Date Title
CN107995429B (en) Shooting method and mobile terminal
US9001056B2 (en) Operating method of terminal based on multiple inputs and portable terminal supporting the same
CN109862267B (en) Shooting method and terminal equipment
US11409421B2 (en) Object processing method and terminal device
JP7247417B2 (en) Icon display method and terminal equipment
CN101960485A (en) Multi-context graphics processing
CN108763317B (en) Method for assisting in selecting picture and terminal equipment
CN111142723B (en) Icon moving method and electronic equipment
EP3962049A1 (en) Content input method and terminal device
CN112749362B (en) Control creation method, device, equipment and storage medium
CN111064848B (en) Picture display method and electronic equipment
CN111104236B (en) Paste control method and electronic equipment
CN110750187A (en) Icon moving method of application program and terminal equipment
CN111026350A (en) Display control method and electronic equipment
CN111127595A (en) Image processing method and electronic device
EP3905037B1 (en) Session creation method and terminal device
CN111105474B (en) Font drawing method, font drawing device, computer device and computer readable storage medium
CN110222567B (en) Image processing method and device
CN111353946B (en) Image restoration method, device, equipment and storage medium
CN111124231A (en) Picture generation method and electronic equipment
CN112825040A (en) User interface display method, device, equipment and storage medium
JP4447342B2 (en) Mobile terminal device and information display device status display method
CN112416199B (en) Control method and device and electronic equipment
CN111666076B (en) Layer adding method, device, terminal and storage medium
CN111143300B (en) File compression method and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090929