JP2011034149A - Communication device and portable electronic device - Google Patents

Communication device and portable electronic device Download PDF

Info

Publication number
JP2011034149A
JP2011034149A JP2009177078A JP2009177078A JP2011034149A JP 2011034149 A JP2011034149 A JP 2011034149A JP 2009177078 A JP2009177078 A JP 2009177078A JP 2009177078 A JP2009177078 A JP 2009177078A JP 2011034149 A JP2011034149 A JP 2011034149A
Authority
JP
Japan
Prior art keywords
group object
extraction
item
group
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009177078A
Other languages
Japanese (ja)
Other versions
JP5254147B2 (en
Inventor
Eizo Fujisawa
栄三 藤澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2009177078A priority Critical patent/JP5254147B2/en
Priority to PCT/JP2010/060902 priority patent/WO2010150893A1/en
Priority to EP10792211.4A priority patent/EP2447857A4/en
Priority to US13/380,691 priority patent/US9626094B2/en
Publication of JP2011034149A publication Critical patent/JP2011034149A/en
Application granted granted Critical
Publication of JP5254147B2 publication Critical patent/JP5254147B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication device and a portable electronic device capable of executing a narrowing-down search with higher operability. <P>SOLUTION: The communication device has a display unit, an input detecting unit, a communication unit, and a control unit. The control unit conducts control so that if the input detecting unit detects a prescribed instruction input for narrowing down pre-extraction group objects while the pre-extraction group objects having multiple item objects are displayed on a screen by the display unit, takes a set of extracted item object matching narrowing-down conditions in the instructed input as a post-extraction group object, and if the input detection unit detects contact to the post-extraction group object and a movement instruction in a contact state, detects a direction in which the post-extraction group object has been moved by the input detecting unit, and on the basis of the direction in which the post-extraction group object has been moved, decides whether to or not to make the pre-extraction group object include the extracted item object. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、表示部により画像が表示された領域への入力に基づいて、オブジェクトの選択を行う通信機器及び携帯電子機器に関する。   The present invention relates to a communication device and a portable electronic device that select an object based on an input to an area where an image is displayed by a display unit.

携帯電話機等の通信機器では、操作者の指示を入力する装置として、キーボードや、テンキー、ボタンを押下する入力装置以外の種々の入力装置がある。例えば、特許文献1には、加速度センサから得られる信号より、携帯端末の傾斜角度および「振る」、「傾ける」などのジェスチャーを入力として検出する携帯端末が記載されている。また、特許文献1に記載の装置では、携帯端末の傾斜角度から情報コンテンツを表すアイコン群の動きを制御し、ディスプレイに時々刻々移動するアイコンを表示することが記載されている。   In a communication device such as a cellular phone, there are various input devices other than an input device for pressing a keyboard, a numeric keypad, or a button as a device for inputting an operator's instruction. For example, Patent Document 1 describes a mobile terminal that detects, as an input, a tilt angle of a mobile terminal and a gesture such as “shake” or “tilt” from a signal obtained from an acceleration sensor. Further, the apparatus described in Patent Document 1 describes that an icon group representing information content is controlled from an inclination angle of a portable terminal, and an icon that moves from moment to moment is displayed on a display.

特開2002−149616号公報JP 2002-149616 A

また、入力装置としては、画像が表示されている領域に操作者が接触(タッチ)し、その接触を入力として検出するタッチパネルなどもある。タッチパネルは、操作者が画面を直接触りながら操作を行うことができるため、直感的な操作が可能で高い操作性を実現することができる。   Further, as an input device, there is a touch panel or the like in which an operator contacts (touches) an area where an image is displayed and detects the contact as an input. Since the operator can perform an operation while directly touching the screen, an intuitive operation is possible and high operability can be realized.

ここで、通信機器では、インターネットを介して情報を取得する場合や、1つのフォルダ内から一部のファイルを取り出す場合に、絞り込み検索を行うことがある。このような絞り込み検索は、キーとなる検索条件と各ファイルの情報とを照合し、検索条件を満たすファイルを抽出する。また、絞り込み検索により抽出されたファイルの表示方法としては、検索条件との適合率も判定し、抽出したファイルを適合率の高い順でリスト表示する方法がある。このように、絞り込み検索の結果を適合率の高い順で表示させることで、操作者が入力した検索条件により適合しているファイルから確認することができる。   Here, the communication device may perform a narrowing search when acquiring information via the Internet or when extracting a part of a file from one folder. In such a narrowing search, a search condition as a key is compared with information of each file, and a file satisfying the search condition is extracted. In addition, as a display method of the files extracted by the narrowing search, there is a method of determining the matching rate with the search condition and displaying the extracted files in a list in descending order of the matching rate. In this way, by displaying the results of the narrowing search in descending order of the relevance ratio, it is possible to confirm from the file that conforms to the search conditions input by the operator.

しかしながら、この方法では、適合率を一定にすると絞り込み結果として抽出されるファイルの数がどの程度になるか検索結果が個数で表示されるまでわからない。また、抽出するファイルの個数を設定すると、検索条件によって、抽出される適合率の高さが変化してしまう。このため、種々の条件を設定しながら検索を繰り返すことになるため、操作性を高くすることが困難である。   However, in this method, it is not possible to know how many files are extracted as a narrowing result when the relevance ratio is constant until the search results are displayed in number. Further, when the number of files to be extracted is set, the high relevance ratio to be extracted changes depending on the search condition. For this reason, since the search is repeated while setting various conditions, it is difficult to improve operability.

また、絞り込み検索対象のファイル群に対して絞り込み検索を実行した後の絞り込み検索対象のファイル群に関する取り扱いの操作性をも高くすることが望ましい。   In addition, it is desirable to improve the handling operability for the file group that is the search target after performing the search for the file group that is the search target.

本発明は、上記に鑑みてなされたものであって、より高い操作性で絞り込み検索を実行することができる通信機器及び携帯電子機器を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a communication device and a portable electronic device that can execute a narrow search with higher operability.

上述した課題を解決し、目的を達成するために、本発明は、通信機器であって、画像を表示させる表示部と、前記表示部により画像が表示された領域に接触することで入力される入力指示を検出する入力検出部と、他の端末と通信を行う通信部と、前記入力検出部で検出した入力指示に基づいて制御を行い、かつ、前記表示部に表示させる画像の制御を行う制御部と、を有し、前記制御部は、前記通信部での通信を行う際のアドレス情報がそれぞれ対応付けられた複数の通信先特定オブジェクトを有する抽出前グループオブジェクトを前記表示部により画面に表示させている状態で、前記抽出前グループオブジェクトを絞り込む所定の指示入力を前記入力検出部が検出したら、前記指示入力における絞り込み条件に適合する通信先特定オブジェクトの集合を抽出するとともに抽出後グループオブジェクトとして前記表示部の画面に表示させ、前記抽出後グループオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、前記入力検出部により前記抽出後グループオブジェクトが移動された方向を検出し、前記抽出後グループオブジェクトが移動された方向に基づいて、抽出された通信先特定オブジェクトを前記抽出前グループオブジェクトに含ませておくか否かを決定する制御を行い、前記抽出後グループオブジェクト内の通信先特定オブジェクトの1つが選択され、決定される指示が入力されたことを前記入力検出部が検出したら、選択された通信先特定オブジェクトの対応付けられたアドレス情報に基づいて前記通信部での通信を開始させることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a communication device, which is input by contacting a display unit that displays an image and a region where the image is displayed by the display unit. An input detection unit that detects an input instruction, a communication unit that communicates with another terminal, a control based on the input instruction detected by the input detection unit, and a control of an image displayed on the display unit A pre-extraction group object having a plurality of communication destination specific objects respectively associated with address information when performing communication in the communication unit on the screen by the display unit. When the input detection unit detects a predetermined instruction input for narrowing down the pre-extraction group object in the displayed state, a communication destination specifying object that matches the narrowing-down condition in the instruction input. When the input detection unit detects the contact to the group object after extraction and the movement instruction in the contact state, the group is extracted by the input detection unit. The direction in which the group object after extraction is moved is detected, and whether or not the extracted communication destination identification object is included in the group object before extraction based on the direction in which the group object after extraction is moved is determined. When the input detection unit detects that one of the communication destination specific objects in the group object after extraction is selected and an instruction to be determined is input, the response of the selected communication destination specific object is performed. The communication unit starts communication based on the attached address information. To.

ここで、前記制御部は、前記抽出前グループオブジェクトとともに、前記抽出前グループオブジェクトの中から前記通信先特定オブジェクトを絞り込む条件を抽象化したキーオブジェクトを前記表示部により画面に表示させている状態で、前記キーオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、前記抽出前グループオブジェクト内の各通信先特定オブジェクトの前記キーオブジェクトに対する適合率を求め、前記算出した適合率の範囲を満足する通信先特定オブジェクトを、前記抽出前グループオブジェクト内の通信先特定オブジェクトから抽出するが好ましい。   Here, the control unit displays a key object that abstracts a condition for narrowing down the communication destination specific object from the group object before extraction together with the group object before extraction on the screen by the display unit. When the input detection unit detects a contact with the key object and a movement instruction in the contact state, a matching rate with respect to the key object of each communication destination specific object in the pre-extraction group object is obtained, and the calculated matching rate It is preferable to extract a communication destination specifying object that satisfies the above range from communication destination specifying objects in the pre-extraction group object.

また、上述した課題を解決し、目的を達成するために、本発明は、携帯電子機器であって、画像を表示させる表示部と、前記表示部により画像が表示された領域に接触することで入力される入力指示を検出する入力検出部と、前記入力検出部で検出した入力指示に基づいて制御を行い、かつ、前記表示部に表示させる画像の制御を行う制御部と、を有し、前記制御部は、複数の項目オブジェクトを有する抽出前グループオブジェクトを前記表示部により画面に表示させている状態で、前記抽出前グループオブジェクトを絞り込む所定の指示入力を前記入力検出部が検出したら、前記指示入力における絞り込み条件に適合する項目オブジェクトの集合を抽出するとともに抽出後グループオブジェクトとして前記表示部の画面に表示させ、前記抽出後グループオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、前記入力検出部により前記抽出後グループオブジェクトが移動された方向を検出し、前記抽出後グループオブジェクトが移動された方向に基づいて、抽出された項目オブジェクトを前記抽出前グループオブジェクトに含ませておくか否かを決定する制御を行うことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a portable electronic device, in which a display unit that displays an image and a region where the image is displayed by the display unit are in contact with each other. An input detection unit that detects an input instruction to be input; and a control unit that performs control based on the input instruction detected by the input detection unit and controls an image to be displayed on the display unit; When the control unit detects a predetermined instruction input for narrowing down the pre-extraction group object in a state where the pre-extraction group object having a plurality of item objects is displayed on the screen by the display unit, A set of item objects that match the filtering conditions in the instruction input is extracted and displayed as a group object after extraction on the screen of the display unit. When the input detection unit detects a contact with the rear group object and a movement instruction in the contact state, the input detection unit detects a direction in which the post-extraction group object is moved, and the post-extraction group object is moved. Control is performed to determine whether to include the extracted item object in the pre-extraction group object based on the direction.

ここで、前記制御部は、前記抽出前グループオブジェクトとともに、前記抽出前グループオブジェクトの中から前記項目オブジェクトを絞り込む条件を抽象化したキーオブジェクトを前記表示部により画面に表示させている状態で、前記キーオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、前記抽出前グループオブジェクト内の各項目オブジェクトの前記キーオブジェクトに対する適合率を求め、前記算出した適合率の範囲を満足する項目オブジェクトを、前記抽出前グループオブジェクト内の項目オブジェクトから抽出することが好ましい。   Here, the control unit, in addition to the group object before extraction, in a state where the display unit displays a key object that abstracts a condition for narrowing down the item object from the group object before extraction on the screen. When the input detection unit detects a contact with the key object and a movement instruction in the contact state, a matching rate of each item object in the pre-extraction group object to the key object is obtained, and the range of the calculated matching rate is satisfied. Preferably, the item object to be extracted is extracted from the item objects in the pre-extraction group object.

また、前記制御部は、前記入力検出部により前記抽出後グループオブジェクトが前記抽出前グループオブジェクトの表示領域内に移動された後に前記抽出前グループオブジェクトの表示領域外に移動されたことを検出したら、抽出された項目オブジェクトを前記抽出前グループオブジェクトと前記抽出後グループオブジェクトの両方に含ませておく制御を行うことが好ましい。   In addition, when the control unit detects that the group object after extraction is moved into the display area of the group object before extraction by the input detection unit and then moved outside the display area of the group object before extraction, It is preferable to perform control so that the extracted item object is included in both the pre-extraction group object and the post-extraction group object.

また、前記制御部は、前記入力検出部により前記抽出後グループオブジェクトが前記抽出前グループオブジェクトの表示領域内に移動されることなく前記抽出前グループオブジェクトの表示領域から遠ざかる方向に移動されたことを検出したら、前記抽出された項目オブジェクトを前記抽出後グループオブジェクトにのみ含ませ、前記抽出前グループオブジェクトからは削除する制御を行うことが好ましい。   In addition, the control unit may have moved the post-extraction group object in a direction away from the pre-extraction group object display area without being moved into the pre-extraction group object display area by the input detection unit. When detected, it is preferable to control to include the extracted item object only in the group object after extraction and delete it from the group object before extraction.

また、前記制御部は、前記抽出後グループオブジェクトの抽出の際、前記入力検出部により前記キーオブジェクトが移動された量を検出し、前記キーオブジェクトが移動された量に基づいて抽出する項目オブジェクトの前記適合率の範囲を算出することが好ましい。   The control unit detects an amount of movement of the key object by the input detection unit when extracting the group object after extraction, and extracts an item object to be extracted based on the amount of movement of the key object. It is preferable to calculate the range of the precision.

また、前記制御部は、前記抽出前グループオブジェクトに含まれる項目オブジェクトを前記表示部に表示させ、前記抽出後グループオブジェクトとともに、前記表示部により前記キーオブジェクトの近傍に表示させることが好ましい。   Moreover, it is preferable that the said control part displays the item object contained in the said group object before extraction on the said display part, and displays it in the vicinity of the said key object with the said display part with the said group object after extraction.

また、前記制御部は、前記抽出後グループオブジェクトの抽出の際、前記キーオブジェクトと前記抽出前グループオブジェクトとの距離に応じて算出する適合率の範囲を変動させ、前記距離が近いほど前記適合率の低い項目オブジェクトも含めて抽出し、前記距離が遠いほど前記適合率の高い項目オブジェクトだけを抽出することが好ましい。   In addition, when extracting the group object after extraction, the control unit varies the range of the precision that is calculated according to the distance between the key object and the group object before extraction, and the precision is higher as the distance is closer. It is preferable to extract the item objects including low item objects, and to extract only the item objects having a higher matching rate as the distance increases.

また、前記制御部は、前記グループオブジェクトに含まれる前記項目オブジェクトの数が多いほど当該グループオブジェクトを前記表示部に大きく表示させ、前記グループオブジェクトに含まれる前記項目オブジェクトの数が少ないほど、当該グループオブジェクトを前記表示部に小さく表示することが好ましい。   Further, the control unit displays the group object larger on the display unit as the number of the item objects included in the group object is larger, and the group object as the number of the item objects included in the group object is smaller. It is preferable to display the object small on the display unit.

また、前記制御部は、前記グループオブジェクトの外周に輪郭線を付けて前記表示部に表示させることが好ましい。   Moreover, it is preferable that the said control part attaches an outline to the outer periphery of the said group object, and displays it on the said display part.

また、前記入力検出部は、前記表示部の前面に配置された接触センサであり、前記表示部に対する接触を入力として検出し、前記制御部は、接触が生じた位置と前記表示部に表示させているそれぞれのオブジェクトの画像とを対応付けて、操作されたオブジェクトを判定することが好ましい。   The input detection unit is a contact sensor disposed on the front surface of the display unit, detects contact with the display unit as an input, and the control unit displays the position where the contact has occurred and the display unit. It is preferable to determine the operated object by associating it with the image of each object.

本発明にかかる通信機器及び携帯電子機器は、高い操作性で絞り込み検索を実行することが可能となるという効果を奏する。   The communication device and the portable electronic device according to the present invention have an effect that a narrow search can be executed with high operability.

図1は、本発明の通信機器並びに携帯電子機器の一実施形態である携帯電子通信機器の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a mobile electronic communication device which is an embodiment of the communication device and the mobile electronic device of the present invention. 図2は、図1に示す携帯電子通信機器のソフトウェアの概略構成を示すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of software of the portable electronic communication device shown in FIG. 図3は、表示デバイスに表示される画像の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of an image displayed on the display device. 図4は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 4 is a flowchart showing an example of the processing operation of the portable electronic communication device. 図5は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 5 is a flowchart showing an example of the processing operation of the portable electronic communication device. 図6−1は、携帯電子通信機器の動作を説明するための説明図である。FIG. 6A is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図6−2は、携帯電子通信機器の動作を説明するための説明図である。FIG. 6B is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図6−3は、携帯電子通信機器の動作を説明するための説明図である。FIG. 6C is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図6−4は、携帯電子通信機器の動作を説明するための説明図である。FIG. 6-4 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図6−5は、携帯電子通信機器の動作を説明するための説明図である。6-5 is explanatory drawing for demonstrating operation | movement of a portable electronic communication apparatus. 図7−1は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 7A is a flowchart illustrating an example of a processing operation of the portable electronic communication device. 図7−2は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 7-2 is a flowchart illustrating an example of a processing operation of the portable electronic communication device. 図8−1は、携帯電子通信機器の動作を説明するための説明図である。FIG. 8A is an explanatory diagram for explaining the operation of the portable electronic communication device. 図8−2は、携帯電子通信機器の動作を説明するための説明図である。FIG. 8-2 is an explanatory diagram for explaining the operation of the portable electronic communication device. 図8−3は、携帯電子通信機器の動作を説明するための説明図である。FIG. 8C is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図9は、携帯電子通信機器の動作を説明するためのグラフである。FIG. 9 is a graph for explaining the operation of the portable electronic communication device. 図10−1は、携帯電子通信機器の動作を説明するための説明図である。FIG. 10A is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図10−2は、携帯電子通信機器の動作を説明するための説明図である。FIG. 10-2 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図11は、携帯電子通信機器の動作を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining the operation of the portable electronic communication device. 図12は、携帯電子通信機器の動作を説明するためのグラフである。FIG. 12 is a graph for explaining the operation of the portable electronic communication device. 図13は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 13 is a flowchart showing an example of the processing operation of the portable electronic communication device. 図14−1は、携帯電子通信機器の動作を説明するための説明図である。FIG. 14A is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図14−2は、携帯電子通信機器の動作を説明するための説明図である。FIG. 14-2 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図14−3は、携帯電子通信機器の動作を説明するための説明図である。FIG. 14C is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図14−4は、携帯電子通信機器の動作を説明するための説明図である。14-4 is explanatory drawing for demonstrating operation | movement of a portable electronic communication apparatus. 図14−5は、携帯電子通信機器の動作を説明するための説明図である。FIG. 14-5 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図14−6は、携帯電子通信機器の動作を説明するための説明図である。FIG. 14-6 is an explanatory diagram for explaining the operation of the mobile electronic communication device.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、通信機器として携帯電子通信機器、より具体的には、携帯電話機を例として説明するが、本発明の適用対象は携帯電話機に限定されるものではなく、例えば、PHS(Personal Handy phone System)、PDA、ナビゲーション装置、ノートパソコン、ゲーム機等に対しても本発明は適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a portable electronic communication device is described as an example of a communication device, and more specifically, a mobile phone is described as an example. However, the application target of the present invention is not limited to a mobile phone. For example, PHS (Personal Handy phone) System), PDA, navigation device, notebook computer, game machine, and the like.

図1は、本発明にかかる通信機器並びに携帯電子機器の一実施形態である携帯電子通信機器の概略構成を示すブロック図である。図1に示すように携帯電子通信機器10は、基本的に、CPU(Central Processing Unit)22と、通信部26と、音声処理部30と、表示デバイス32と、入力デバイス34と、ROM36と、RAM38と、内部ストレージ40と、外部ストレージインターフェース(I/F、interface)42を有する。また、携帯電子通信機器10は、外部ストレージI/F42を介して外部ストレージ46と接続されている。なお、携帯電子通信機器10は、上記構成の他にも撮像部や、各種端子等、携帯電子通信機器として有する各種構成を有している。また、携帯電子通信機器の外形形状は、ヒンジで連結された2つの部材で構成され、折りたたみ可能な形状や、2つの部材をスライドさせる形状や、1つの箱型の形状等、種々の形状とすることができる。   FIG. 1 is a block diagram showing a schematic configuration of a mobile electronic communication device which is an embodiment of a communication device and a mobile electronic device according to the present invention. As shown in FIG. 1, the portable electronic communication device 10 basically includes a CPU (Central Processing Unit) 22, a communication unit 26, an audio processing unit 30, a display device 32, an input device 34, a ROM 36, A RAM 38, an internal storage 40, and an external storage interface (I / F, interface) 42 are included. The portable electronic communication device 10 is connected to the external storage 46 via the external storage I / F 42. In addition to the above-described configuration, the mobile electronic communication device 10 has various configurations that are included in the mobile electronic communication device, such as an imaging unit and various terminals. In addition, the external shape of the portable electronic communication device is composed of two members connected by a hinge, and can have various shapes such as a foldable shape, a shape in which two members are slid, and a single box shape. can do.

CPU22は、携帯電子通信機器10の全体的な動作を統括的に制御する処理部である。すなわち、携帯電子通信機器10の各種の処理が、入力デバイス34の操作や携帯電子通信機器10のROM36、内部ストレージ40に保存されるソフトウェアに応じて適切な手順で実行されるように、通信部26や、表示デバイス32等の動作を制御する。携帯電子通信機器10の各種の処理としては、例えば、回線交換網を介して行われる音声通話、電子メールの作成及び送受信、インターネットのWeb(World Wide Web)サイトの閲覧等がある。また、通信部26、音声処理部30、表示デバイス32等の動作としては、例えば、通信部26による信号の送受信、音声処理部30による音声の入出力、表示デバイス32による画像の表示等がある。   The CPU 22 is a processing unit that comprehensively controls the overall operation of the mobile electronic communication device 10. That is, the communication unit is configured so that various processes of the mobile electronic communication device 10 are executed in an appropriate procedure according to the operation of the input device 34 and the software stored in the ROM 36 and the internal storage 40 of the mobile electronic communication device 10. 26, the operation of the display device 32, and the like are controlled. Various processes of the portable electronic communication device 10 include, for example, a voice call performed via a circuit switching network, creation and transmission / reception of an electronic mail, browsing of a Web (World Wide Web) site on the Internet, and the like. The operations of the communication unit 26, the audio processing unit 30, the display device 32, and the like include, for example, transmission / reception of signals by the communication unit 26, input / output of audio by the audio processing unit 30, display of images by the display device 32, and the like. .

CPU22は、ROM36、内部ストレージ40に保存されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。CPU22は、例えば、マイクロプロセッサユニット(MPU:Micro Processor Unit)で構成され、前記ソフトウェアで指示された手順にしたがって上述した携帯電子通信機器10の各種の処理を実行する。すなわち、CPU22は、ROM36、内部ストレージ40に保存されるオペレーティングシステムプログラムやアプリケーションプログラム等から命令コードを順次読み込んで処理を実行する。   The CPU 22 executes processing based on programs (for example, operating system programs, application programs, etc.) stored in the ROM 36 and the internal storage 40. The CPU 22 is constituted by, for example, a microprocessor unit (MPU: Micro Processor Unit), and executes various processes of the portable electronic communication device 10 described above according to a procedure instructed by the software. That is, the CPU 22 sequentially reads instruction codes from the operating system program, application program, and the like stored in the ROM 36 and the internal storage 40 and executes processing.

CPU22は、複数のアプリケーションプログラムを実行する機能を有する。CPU22が実行するアプリケーションプログラムとしては、例えば、表示デバイス32に画像を表示させる画像表示アプリケーションプログラムや、入力デバイス34で検出した入力に基づいて入力された操作を算出する操作検出アプリケーションプログラムや、絞り込み検索を行う検索アプリケーションプログラムや、インターネット通信を行うインターネットアプリケーションプログラムや、メールを作成するメールアプリケーションプログラム、電話をかけるための電話アプリケーションプログラム等の複数のアプリケーションプログラムがある。   The CPU 22 has a function of executing a plurality of application programs. Examples of application programs executed by the CPU 22 include an image display application program for displaying an image on the display device 32, an operation detection application program for calculating an operation input based on an input detected by the input device 34, and a narrowing search. There are a plurality of application programs such as a search application program for performing communication, an Internet application program for performing Internet communication, a mail application program for creating mail, and a telephone application program for making calls.

通信部26は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。   The communication unit 26 establishes a radio signal line by a CDMA system or the like with a base station via a channel assigned by the base station, and performs telephone communication and information communication with the base station.

音声処理部30は、マイク50に入力される音声信号やレシーバ52から出力される音声信号の処理を実行する。すなわち、音声処理部30は、マイク50から入力される音声を増幅し、AD変換(Analog Digital変換)を実行した後さらに符号化等の信号処理を施して、ディジタルの音声データに変換してCPU22へ出力する。また、CPU22から送られる音声データに対して復号化、DA変換(Digital Analog変換)、増幅等の処理を施してアナログの音声信号に変換してから、レシーバ52へ出力する。   The audio processing unit 30 executes processing of an audio signal input to the microphone 50 and an audio signal output from the receiver 52. That is, the sound processing unit 30 amplifies the sound input from the microphone 50, performs AD conversion (Analog Digital conversion), and then performs signal processing such as encoding to convert the sound into digital sound data to be converted into the CPU 22 Output to. Further, the audio data sent from the CPU 22 is subjected to processing such as decoding, DA conversion (Digital Analog conversion), amplification, etc. to convert it into an analog audio signal, which is then output to the receiver 52.

表示デバイス32は、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどの表示パネルを備え、CPU22から供給される映像データに応じた映像、画像データに応じた画像を表示パネルに表示させる。   The display device 32 includes a display panel such as a liquid crystal display (LCD) or an organic EL (Organic Electro-Luminescence) panel, and a video corresponding to video data supplied from the CPU 22 and an image corresponding to the image data. Is displayed on the display panel.

入力デバイス34は、表示デバイス32の前面に配置されたタッチパネルであり、操作者が表面を触るとその接触を入力として検出する。なお、入力デバイス34は、接触された位置や、その接触の強さ等を検出する。タッチパネルとしては、マトリクススイッチ、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等種々の方式のタッチパネルを用いることができる。ここで、表示デバイス32に電源キー、通話キー、数字キー、文字キー、方向キー、決定キー、発信キーなど、各種の機能が割り当てられたキーの画像を表示させた状態のときに操作者によって入力デバイス34が押されたら、入力デバイス34は、押された位置(接触があった位置)を検出する。携帯電子通信機器10のCPU22は、入力デバイス34が接触を検出した位置に対応するキーの操作が入力されたとして、その処理を行う。   The input device 34 is a touch panel arranged on the front surface of the display device 32, and detects the contact as an input when the operator touches the surface. The input device 34 detects the touched position, the strength of the touch, and the like. As the touch panel, various types of touch panels such as a matrix switch, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method can be used. Here, when an image of a key to which various functions such as a power key, a call key, a numeric key, a character key, a direction key, a decision key, and a call key are displayed on the display device 32 is displayed by the operator. When the input device 34 is pressed, the input device 34 detects the pressed position (the position where the touch has occurred). The CPU 22 of the portable electronic communication device 10 performs the process on the assumption that the key operation corresponding to the position where the input device 34 has detected contact is input.

ROM(Read Only Memory)36は、読み取り専用の記憶デバイスであり、BIOS等携帯電子通信機器10の駆動に用いるファームウェアが記憶されている。RAM(Random Access Memory)38は、読み書き可能な記憶デバイスであり、(例えば、SRAM:Static Random Access Memory、DRAM:Dynamic Random Access Memory)等で構成される。ROM36とRAM38とで、主記憶装置が構成される。また、ROM36やRAM38は、ソフトウェアの処理過程で用いられるコンピュータプログラムや一時的なデータが、CPU22により割り当てられ、割り当てられたデータを一時的に作業領域に保存する。   A ROM (Read Only Memory) 36 is a read-only storage device, and stores firmware used for driving the portable electronic communication device 10 such as BIOS. A RAM (Random Access Memory) 38 is a readable / writable storage device, and is composed of, for example, an SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory). The ROM 36 and the RAM 38 constitute a main storage device. In the ROM 36 and RAM 38, computer programs and temporary data used in the software processing process are assigned by the CPU 22, and the assigned data are temporarily stored in the work area.

内部ストレージ(内部メモリ)40は、携帯電子通信機器10に備え付けられた読み取り及び書き込み可能な記憶装置、例えば、ハードディスクである。内部ストレージ40は、補助記憶装置として利用され、CPU22での処理に利用されるソフトウェアやデータが保存されている。また、内部ストレージ40には、これらのタスク以外に、通信、ダウンロードされた画像データを保存する画像フォルダや、待ち受け画像に使用される画像ファイルを保存する待ち受け画像フォルダ等も有する。また、内部ストレージ40には、これら以外にも、例えば、通信、ダウンロードされた音声データ、あるいは内部ストレージ40に対する制御にCPU22が用いるソフトウェア、通信相手の電話番号やメールアドレス等を保存し、管理するアドレス帳、発信音や着信音等の音声ファイル、ソフトウェアの処理過程で用いられる一時的なデータ等が保存されている。   The internal storage (internal memory) 40 is a readable and writable storage device provided in the portable electronic communication device 10, for example, a hard disk. The internal storage 40 is used as an auxiliary storage device, and stores software and data used for processing by the CPU 22. In addition to these tasks, the internal storage 40 also has an image folder for storing communication and downloaded image data, a standby image folder for storing image files used for standby images, and the like. In addition to these, the internal storage 40 stores and manages, for example, communication, downloaded audio data, software used by the CPU 22 to control the internal storage 40, the telephone number and mail address of the communication partner, and the like. An address book, voice files such as dial tone and ring tone, temporary data used in software processing, and the like are stored.

外部ストレージI/F42は、着脱可能な外部ストレージ46と接続する端子である。外部ストレージI/F42と外部ストレージ46とを接続することで、CPU22と外部ストレージ46との間でデータの送受信を行うことが可能となる。外部ストレージ(外部メモリ)46は、外部ストレージI/F42を介して、携帯電子通信機器10に着脱可能な記憶装置であり、SDカード(登録商標)、コンパクトフラッシュ(登録商標)等のメモリーカードや、着脱可能なHDD(Hard Disk Drive)を用いることができる。また、外部ストレージI/F42と外部ストレージ46との組み合わせとしては、リムーバブルディスクドライブ(Removable Disk Drive)と、リムーバブルディスクを組み合わせてもよい。   The external storage I / F 42 is a terminal connected to the removable external storage 46. By connecting the external storage I / F 42 and the external storage 46, data can be transmitted and received between the CPU 22 and the external storage 46. The external storage (external memory) 46 is a storage device that can be attached to and detached from the portable electronic communication device 10 via the external storage I / F 42, and includes a memory card such as an SD card (registered trademark) or a compact flash (registered trademark). A removable HDD (Hard Disk Drive) can be used. As a combination of the external storage I / F 42 and the external storage 46, a removable disk drive and a removable disk may be combined.

次に、図2を用いて、携帯電子通信機器10のソフトウェアの構成について説明する。ここで、図2は、携帯電子通信機器のソフトウェアの概略構成を示すブロック図であり、図3は、表示デバイスに表示される画像の一例を示す説明図である。なお、図2では、説明のために、各ソフトウェア(アプリケーションプログラム)が個別に設けられているように示すが、CPU22、ROM36、RAM38、内部ストレージ40等の間で、信号のやり取り、データの処理が行われているものであり、各部が目視上別々に設けられているわけではない。また、図2には、ソフトウェアとして項目オブジェクトの絞り込み検索と画像表示に関するソフトウェアを示しているが、携帯電子通信機器10は、図2に示すソフトウェア以外にも種々のソフトウェアを備えている。なお、オブジェクトとは、操作者による操作の対象となるアイテム(操作の対象となるデータ等を抽象化して表示したもの)であり、グループオブジェクト(フォルダ)や、項目オブジェクト(ファイル)、キーオブジェクト(検索条件)等である。なお、フォルダ(ディレクトリ)としては、操作者により作成されたフォルダのみならず、絞り込み検索によって携帯電子通信機器10により作成されたフォルダや、絞り込み検索によって検出されたファイルの集合を管理するために一時的に作成されたフォルダも含まれる。また、ファイルとしては、画像データ、音声データ、また、インターネットホームページのデータ、メールアドレスや電話番号が登録されたアドレス帳のデータ等が例示される。さらに、検索条件としては、キーワードとなる文字や、閾値となる数値(日時やサイズ、画像の場合は人数)、ファイルのジャンル(例えば、画像の場合は風景、人物写真等、音楽の場合は、クラシック、ヒップホップ、ロック等、アドレス帳の場合はグループカテゴリ等)等がある。   Next, the software configuration of the portable electronic communication device 10 will be described with reference to FIG. Here, FIG. 2 is a block diagram illustrating a schematic configuration of software of the portable electronic communication device, and FIG. 3 is an explanatory diagram illustrating an example of an image displayed on the display device. In FIG. 2, for the sake of explanation, each software (application program) is shown as being provided separately. However, signal exchange and data processing among the CPU 22, ROM 36, RAM 38, internal storage 40, etc. However, each part is not visually provided separately. Further, FIG. 2 shows software related to item object narrowing search and image display as software, but the portable electronic communication device 10 includes various software in addition to the software shown in FIG. An object is an item to be operated by an operator (displayed by abstracting data to be operated), a group object (folder), an item object (file), a key object ( Search condition). Note that the folder (directory) is not only a folder created by the operator, but also a folder created by the portable electronic communication device 10 by the narrowing search and a temporary set for managing a set of files detected by the narrowing search. Includes folders created automatically. Examples of the file include image data, audio data, Internet home page data, address book data in which mail addresses and telephone numbers are registered, and the like. In addition, as search conditions, the character used as a keyword, the numerical value used as a threshold (date and time, the number of people in the case of an image), the genre of a file (for example, in the case of an image, landscape, portrait, etc., in the case of music, Classic, hip hop, rock, etc., in the case of address book, group category, etc.).

ここで、図3を用いて、絞り込み検索が行われる際に画面上に表示される各部を説明する。図3に示すように、表示デバイスには、複数の項目オブジェクト104を有するグループオブジェクト102と、検索条件である(検索条件を抽象化した)キーオブジェクト106とが表示されている。ここで、図3に示す例では、グループオブジェクト102は、複数の項目オブジェクト104が記憶されたフォルダであり、「Aさん」という名称のグループオブジェクトと、「Bさん」という名称のグループオブジェクトが表示されている。また、各グループオブジェクト102は、グループオブジェクトの表示領域の外周が点線で囲われている。つまり、グループオブジェクトと他の部分との境界線が表示されている。また、グループオブジェクト102の内部には、グループオブジェクト102に所属する項目オブジェクト104が表示されている。   Here, with reference to FIG. 3, each unit displayed on the screen when the refinement search is performed will be described. As shown in FIG. 3, the display device displays a group object 102 having a plurality of item objects 104 and a key object 106 that is a search condition (abstracting the search condition). In the example illustrated in FIG. 3, the group object 102 is a folder in which a plurality of item objects 104 are stored. A group object named “Mr. A” and a group object named “Mr. B” are displayed. Has been. In each group object 102, the outer periphery of the display area of the group object is surrounded by a dotted line. That is, the boundary line between the group object and another part is displayed. An item object 104 belonging to the group object 102 is displayed inside the group object 102.

また、項目オブジェクト104は、画像ファイルで構成されており、表示デバイスには、項目オブジェクト104として画像ファイルのサムネイル画像が表示されている。また、キーオブジェクト106は、絞り込み条件となる文言が記載されており、グループオブジェクト102とは、一定距離以上離間した位置に表示されている。なお、表示デバイス32に表示された画像の操作方法、またその操作に基づいた絞り込み検索の制御方法については、後ほど説明する。   The item object 104 is composed of an image file, and a thumbnail image of the image file is displayed as the item object 104 on the display device. Further, the key object 106 is described in terms of a narrowing condition, and is displayed at a position separated from the group object 102 by a certain distance or more. A method for operating the image displayed on the display device 32 and a control method for narrowing search based on the operation will be described later.

図2に示すように、携帯電子通信機器10のソフトウェアは、絞り込み検索を行う検索部60と、表示デバイス32に表示する画像を制御する表示部62と、入力デバイス34からの入力を検出する入力部64と、内部ストレージ40及び外部ストレージ46とデータの送受信を行うコンテンツ制御部66とを有する。以下、各部の構成を説明する。   As illustrated in FIG. 2, the software of the mobile electronic communication device 10 includes a search unit 60 that performs a narrow search, a display unit 62 that controls an image displayed on the display device 32, and an input that detects an input from the input device 34. A content control unit 66 that transmits and receives data to and from the internal storage 40 and the external storage 46. Hereinafter, the configuration of each unit will be described.

検索部60は、検索制御部68と、オブジェクト制御部70と、オブジェクト表示部72と、オブジェクト操作部74と、オブジェクト管理部76と、オブジェクト情報データベース78と、コンテンツ管理部80と、検索インデックスデータベース82と、コンテンツ情報データベース84と、コンテンツアクセス部86とを有する。検索部60は、複数の項目オブジェクトが集められたグループオブジェクトを読み出し、グループオブジェクト内の各項目オブジェクトと検索条件との適合率を算出し、グループオブジェクト内の項目オブジェクトの中から適合率が条件を満たす、つまり、適合率が所定の範囲の項目オブジェクトを抽出することで絞り込み検索を行う。また、本実施形態では、検索部60は、適合率が高いものから抽出を行い、適合率が100%から決定された割合までの間に含まれると判定された項目オブジェクトを抽出する。なお、抽出する適合率の範囲を決定する方法は、後ほど説明する。   The search unit 60 includes a search control unit 68, an object control unit 70, an object display unit 72, an object operation unit 74, an object management unit 76, an object information database 78, a content management unit 80, and a search index database. 82, a content information database 84, and a content access unit 86. The search unit 60 reads a group object in which a plurality of item objects are collected, calculates a matching rate between each item object in the group object and the search condition, and the matching rate is determined from the item objects in the group object. A narrowing search is performed by extracting item objects that satisfy, that is, the matching rate is in a predetermined range. In the present embodiment, the search unit 60 performs extraction from items having a high relevance rate, and extracts item objects determined to be included between 100% and the determined ratio. A method for determining the range of the precision to be extracted will be described later.

検索制御部68は、オブジェクト制御部70及びコンテンツ管理部80との間で、情報のやり取りを行い、各部から供給される情報に基づいて、項目オブジェクトの絞り込み検索を行う。オブジェクト制御部70は、オブジェクト表示部72、オブジェクト操作部74、オブジェクト管理部76と情報のやり取りを行い、グループオブジェクト、項目オブジェクト、キーオブジェクト等、種々のオブジェクトの挙動を制御する。具体的には、表示させるオブジェクトの選択、オブジェクトを表示させる位置の決定、また、検索制御部68の決定に基づいた新たなグループオブジェクトの作成、また、各項目オブジェクトが所属するグループオブジェクトの決定、移動、キーオブジェクトの生成等を行う。   The search control unit 68 exchanges information with the object control unit 70 and the content management unit 80, and performs a narrow-down search for item objects based on information supplied from each unit. The object control unit 70 exchanges information with the object display unit 72, the object operation unit 74, and the object management unit 76, and controls the behavior of various objects such as group objects, item objects, and key objects. Specifically, selection of an object to be displayed, determination of a position to display an object, creation of a new group object based on determination of the search control unit 68, determination of a group object to which each item object belongs, Move, create key objects, etc.

オブジェクト表示部72は、オブジェクト制御部70による制御に基づいて決定された、表示するオブジェクトの情報を表示部62の表示制御部88に送る。つまり、オブジェクト表示部72は、どのグループオブジェクト、項目オブジェクト、キーオブジェクトを表示させるか、また各オブジェクトをどの位置にどのように表示させるかの情報を表示制御部88に送る。   The object display unit 72 sends information on the object to be displayed, determined based on the control by the object control unit 70, to the display control unit 88 of the display unit 62. That is, the object display unit 72 sends to the display control unit 88 information on which group object, item object, and key object are displayed, and at what position and how each object is displayed.

オブジェクト操作部74は、入力部64から送られてきた入力信号に基づいて、操作するオブジェクト及びそのオブジェクトの操作を決定して、決定した操作対象のオブジェクトの信号及び決定した操作の信号をオブジェクト制御部70に送る。   The object operation unit 74 determines an object to be operated and an operation of the object based on the input signal sent from the input unit 64, and performs object control on the determined signal of the operation target object and the determined operation signal. Send to part 70.

オブジェクト管理部76は、各オブジェクトを管理する機能を有し、オブジェクト情報データベース78は、各オブジェクトに関する情報を記憶する記憶手段である。ここで、各オブジェクトに関する情報としては、オブジェクトがどのグループオブジェクトに所属しているかを示す情報、絞り込み検索の際にオブジェクトの適合率を算出するための情報や、キーオブジェクトの情報等、絞り込み検索やオブジェクトの操作に必要な種々の情報が記憶されている。なお、オブジェクト情報データベース78には、表示デバイス32の画面上に表示されているオブジェクトに関する情報が記憶されている。オブジェクト管理部76は、オブジェクト情報データベース78の情報を適宜読み出し、オブジェクト制御部70に送り、また、オブジェクトに関する情報が更新されたら、オブジェクト情報データベース78に記憶されている情報を更新する。   The object management unit 76 has a function of managing each object, and the object information database 78 is a storage unit that stores information about each object. Here, as information about each object, information indicating which group object the object belongs to, information for calculating the relevance ratio of the object in the narrowing search, information on the key object, etc. Various information necessary for the operation of the object is stored. Note that the object information database 78 stores information related to objects displayed on the screen of the display device 32. The object management unit 76 appropriately reads information in the object information database 78, sends it to the object control unit 70, and updates the information stored in the object information database 78 when the information about the object is updated.

次に、コンテンツ管理部80は、検索インデックスデータベース82、コンテンツ情報データベース84、コンテンツアクセス部86を有し、内部ストレージ40や外部ストレージ46に記憶されている写真や、音楽データ、アドレス帳のデータ等のファイルを、コンテンツ制御部66を介して読み出したり、各ファイルを内部ストレージ40や外部ストレージ46に書き込んだりする。   Next, the content management unit 80 includes a search index database 82, a content information database 84, and a content access unit 86, and photographs, music data, address book data, etc. stored in the internal storage 40 and the external storage 46, etc. These files are read out via the content control unit 66, and each file is written into the internal storage 40 or the external storage 46.

検索インデックスデータベース82は、絞り込み検索に用いる検索条件に関する情報が記憶されている。なお、検索インデックスデータベース82は、必要に応じて、表示デバイス32の画面上にキーオブジェクトとして表示されている検索条件に関する情報以外の検索条件に関する情報についても記憶されている。   The search index database 82 stores information related to search conditions used for narrowing search. Note that the search index database 82 also stores information on search conditions other than information on search conditions displayed as key objects on the screen of the display device 32 as necessary.

コンテンツ情報データベース84は、項目オブジェクトとなっている音声データや、画像ファイル、インターネットサイト等のデータが記憶されている。つまり、画面上に表示されている項目オブジェクトに対応するファイルの情報(音声情報や、画像情報)が記憶されている。なお、コンテンツ情報データベース84は、必要に応じて、表示デバイス32に表示されている項目オブジェクト以外の項目オブジェクトのファイルの情報も記憶している。コンテンツアクセス部86は、コンテンツ制御部66と情報のやり取りを行い、コンテンツ制御部66が取得したファイルの情報や、ソフトウェアの情報等を読み取り、コンテンツ管理部80から送られるファイルの情報や、ソフトウェアの情報をコンテンツ制御部66に送る。   The content information database 84 stores audio data, image files, Internet sites, and the like as item objects. That is, file information (audio information and image information) corresponding to the item object displayed on the screen is stored. The content information database 84 also stores file information of item objects other than the item objects displayed on the display device 32 as necessary. The content access unit 86 exchanges information with the content control unit 66, reads the file information, software information, and the like acquired by the content control unit 66. Information is sent to the content control unit 66.

表示部62は、表示制御部88と、描画エンジン部90とを有し、検索部60のオブジェクト表示部72から送られる情報に基づいて、表示デバイス32に表示させる画像の画像信号を生成し、表示デバイス32に送る。表示制御部88は、オブジェクト表示部72から送られる情報、つまり、どのオブジェクトをどの位置にどのように表示させるかの情報に基づいて、表示させる画像を作成する。描画エンジン部90は、表示制御部88で作成された画像を画像信号に変換し、変換した画像信号を表示デバイス32に送る。このようにして、表示デバイス32は、検索部60から送られた情報に基づいて表示部62で作成された画像を表示させる。なお、表示部62は、他のソフトウェアが起動されている場合は、オブジェクト表示部72から送られた情報以外の種々のソフトウェアから送られる情報にも基づいて画像を生成する。   The display unit 62 includes a display control unit 88 and a drawing engine unit 90, generates an image signal of an image to be displayed on the display device 32 based on information sent from the object display unit 72 of the search unit 60, and Send to display device 32. The display control unit 88 creates an image to be displayed based on information sent from the object display unit 72, that is, information on which object is displayed in which position and how. The drawing engine unit 90 converts the image created by the display control unit 88 into an image signal, and sends the converted image signal to the display device 32. In this way, the display device 32 displays the image created by the display unit 62 based on the information sent from the search unit 60. When other software is activated, the display unit 62 generates an image based on information sent from various software other than the information sent from the object display unit 72.

入力部64は、入力インターフェース(I/F)制御部92を有し、入力デバイス34で検出された操作者の操作をオブジェクト操作部74に送る。入力インターフェース制御部92は、入力デバイス34から送られる信号を検索部60で解析可能な信号に変換して、オブジェクト操作部74に送る。   The input unit 64 includes an input interface (I / F) control unit 92, and sends an operation of the operator detected by the input device 34 to the object operation unit 74. The input interface control unit 92 converts the signal sent from the input device 34 into a signal that can be analyzed by the search unit 60 and sends the signal to the object operation unit 74.

コンテンツ制御部66は、ファイルシステム94を有し、内部ストレージ40及び/または外部ストレージ46から情報の読み取りを行い、読み取った情報をコンテンツアクセス部86に送り、コンテンツアクセス部86から送られた情報を、内部ストレージ40及び/または外部ストレージ46に書き込む。なお、ファイルシステム94は、情報の読み取り、書き込みの管理を行う機能である。   The content control unit 66 has a file system 94, reads information from the internal storage 40 and / or the external storage 46, sends the read information to the content access unit 86, and receives the information sent from the content access unit 86. To the internal storage 40 and / or the external storage 46. The file system 94 has a function of managing information reading and writing.

次に、図4から図12を用いて携帯電子通信機器10の動作、具体的には、絞り込み検索の検索方法およびそれに伴う画像表示方法ついて説明する。ここで、図4は、携帯電子通信機器の処理動作の一例を示すフロー図である。   Next, the operation of the mobile electronic communication device 10, specifically, the search method for the narrow search and the image display method associated therewith will be described with reference to FIGS. 4 to 12. Here, FIG. 4 is a flowchart showing an example of the processing operation of the portable electronic communication device.

まず、図2に示す各ソフトウェアが起動されている場合は、画面上には、図3に示すように、複数の項目オブジェクトを有するグループオブジェクトと、複数のキーオブジェクトが表示デバイス32に表示されている。このように、複数の項目オブジェクトを有するグループオブジェクトと、複数のキーオブジェクトが表示されている場合に、所定の操作が行われた場合に絞り込み検索が行われる。なお、キーオブジェクトは、AモードキーオブジェクトとBモードキーオブジェクトの2種類のキーオブジェクトがそれぞれ複数個ずつ表示されている。なお、AモードとBモードとは、キーオブジェクトの操作に基づいて決定される抽出する項目オブジェクトの適合率の範囲(閾値)を異なる方法で求めている点が異なる。そのため、AモードキーオブジェクトとBモードキーオブジェクトでは、絞り込みを行う検索条件(キーワード、基準値、基準条件)が同一のものもある。   First, when each software shown in FIG. 2 is activated, a group object having a plurality of item objects and a plurality of key objects are displayed on the display device 32 as shown in FIG. Yes. As described above, when a group object having a plurality of item objects and a plurality of key objects are displayed, a refined search is performed when a predetermined operation is performed. Note that a plurality of two types of key objects, A mode key object and B mode key object, are displayed as key objects. The A mode and the B mode are different in that the range (threshold value) of the matching rate of the item object to be extracted, which is determined based on the operation of the key object, is obtained by different methods. For this reason, the A-mode key object and the B-mode key object may have the same search condition (keyword, reference value, reference condition) for narrowing down.

検索部60は、ステップS12として、タッチ操作されたかを判定する。つまり、入力デバイス34が、操作者による操作を検出し、その信号が入力部64を介してオブジェクト操作部74に入力されたかを判定する。検索部60は、ステップS12でタッチ操作がされていない(No)と判定したら、処理を終了する。   In step S12, the search unit 60 determines whether a touch operation has been performed. That is, the input device 34 detects an operation by the operator, and determines whether the signal is input to the object operation unit 74 via the input unit 64. If it is determined in step S12 that the touch operation is not performed (No), the search unit 60 ends the process.

検索部60は、ステップS12でタッチ操作された(Yes)と判定したら、ステップS14として、タッチ座標がオブジェクト領域内かを判定する。つまり、操作者により接触した位置がオブジェクトに対応する領域であるかを判定する。ここで、表示デバイス32の画面に表示されているオブジェクトは、表示デバイス32の画面表示に対応する入力デバイス34の領域がオブジェクト領域として設定されている。検索部60は、タッチ座標がオブジェクト領域内である(Yes)と判定したら、ステップS16に進み、オブジェクト領域内ではない(No)と判定したら、処理を終了する。つまり、検索部60は、タッチ座標がオブジェクト領域内である場合は、そのオブジェクトを操作する指示が入力されたと判定し、オブジェクトの操作に移行する。   If it is determined that the touch operation has been performed (Yes) in Step S12, the search unit 60 determines whether the touch coordinates are within the object region as Step S14. That is, it is determined whether the position touched by the operator is an area corresponding to the object. Here, for the object displayed on the screen of the display device 32, the area of the input device 34 corresponding to the screen display of the display device 32 is set as the object area. If it is determined that the touch coordinates are within the object area (Yes), the search unit 60 proceeds to step S16, and if it is determined that the touch coordinates are not within the object area (No), the process ends. That is, when the touch coordinates are within the object area, the search unit 60 determines that an instruction to operate the object has been input, and shifts to the operation of the object.

検索部60は、ステップS14でYesと判定したら、ステップS16として、タッチ座標がグループオブジェクトの領域内であるかを判定する。つまり、操作の対象として、グループオブジェクトが指定されたか否かを判定する。検索部60は、ステップS16で、タッチ座標がグループオブジェクトの領域内である(Yes)、つまり、グループオブジェクトが操作対象であると判定したら、ステップS18として、オブジェクト移動モードに移行する。ここで、オブジェクト移動モードとは、操作者がグループオブジェクトを指定した状態から、入力デバイス34の接触している位置を移動させたら、つまり、タッチ座標を変化させたら、その変化に応じて、グループオブジェクトの位置を移動させるモードである。また、オブジェクト移動モードでは、タッチ操作が終了したら、つまり、操作者が入力デバイス34にタッチしていない状態となったら、グループオブジェクトの移動が終了したと判定して、タッチ操作が終了した位置をグループオブジェクトとして設定して、処理を終了する。   If it is determined Yes in step S14, the search unit 60 determines whether the touch coordinates are within the group object region as step S16. That is, it is determined whether or not a group object is designated as an operation target. If it is determined in step S16 that the touch coordinates are within the area of the group object (Yes), that is, the group object is an operation target, the search unit 60 proceeds to the object movement mode in step S18. Here, the object movement mode means that when the operator moves the position in contact with the input device 34 from the state in which the group object is designated, that is, when the touch coordinates are changed, the group moves according to the change. In this mode, the position of the object is moved. In the object movement mode, when the touch operation is finished, that is, when the operator does not touch the input device 34, it is determined that the movement of the group object is finished, and the position where the touch operation is finished is determined. Set as a group object and end the process.

また、検索部60は、ステップS16で、タッチ座標がグループオブジェクトの領域内ではない(No)、つまり、グループオブジェクトが操作対象ではないと判定したら、ステップS20として、タッチ座標がAモードキーオブジェクトの領域内であるかを判定する。つまり、操作の対象として、Aモードキーオブジェクトが指定されたか否かを判定する。検索部60は、ステップS20で、タッチ座標がAモードキーオブジェクトの領域内である(Yes)と判定したら、ステップS22として、オブジェクト吸着Aモードに移行する。なお、オブジェクト吸着Aモードについては、図4に示すフロー図の説明が終了した後、説明する。検索部60は、ステップS22でのオブジェクト吸着Aモードの処理が終了したら、処理を終了する。   If the search unit 60 determines in step S16 that the touch coordinates are not within the area of the group object (No), that is, if the group object is not an operation target, in step S20, the touch coordinates are the A mode key object. It is determined whether it is in the area. That is, it is determined whether or not an A mode key object is designated as an operation target. If it is determined in step S20 that the touch coordinates are within the area of the A mode key object (Yes), the search unit 60 proceeds to object adsorption A mode in step S22. The object adsorption A mode will be described after the description of the flowchart shown in FIG. 4 is completed. When the object adsorption A mode process in step S22 is completed, the search unit 60 ends the process.

次に、ステップS20で、タッチ座標がAモードキーオブジェクトの領域内ではない(No)、つまり、Aモードキーオブジェクトが操作対象ではないと判定したら、ステップS24として、タッチ座標がBモードキーオブジェクトの領域内であるかを判定する。つまり、操作の対象として、Bモードキーオブジェクトが指定されたか否かを判定する。検索部60は、ステップS24で、タッチ座標がBモードキーオブジェクトの領域内である(Yes)と判定したら、ステップS26として、オブジェクト吸着Bモードに移行する。なお、オブジェクト吸着Bモードについては、後ほど説明する。検索部60は、ステップS26でのオブジェクト吸着Bモードの処理が終了したら、処理を終了する。   Next, if it is determined in step S20 that the touch coordinates are not within the area of the A-mode key object (No), that is, if the A-mode key object is not an operation target, in step S24, the touch coordinates are the B-mode key object. It is determined whether it is in the area. That is, it is determined whether or not a B-mode key object is designated as an operation target. If it is determined in step S24 that the touch coordinates are within the area of the B mode key object (Yes), the search unit 60 proceeds to the object adsorption B mode in step S26. The object adsorption B mode will be described later. The search unit 60 ends the process when the object adsorption B mode process in step S26 ends.

検索部60は、ステップS24で、タッチ座標がBモードキーオブジェクトの領域内ではない(No)、つまり、Bモードキーオブジェクトが操作対象ではないと判定したら、処理を終了する。なお、検索部60は、ステップS14から処理終了(エンド)の前までの処理を項目オブジェクトの個数に対応する回数分、繰り返し行う。つまり、グループオブジェクトに含まれる項目オブジェクトの数の分だけ、上記判定を繰り返し、グループオブジェクトの操作や、キーオブジェクトの操作に対応させて、各項目オブジェクトも操作する。具体的には、グループオブジェクトが移動されたら、その移動に応じて、グループオブジェクトに含まれる各項目オブジェクトも移動させる。検索部60は、このように制御を行うことで、操作者によりタッチされた項目オブジェクトに応じて操作を行うことができる。   If the search unit 60 determines in step S24 that the touch coordinates are not within the region of the B-mode key object (No), that is, the B-mode key object is not an operation target, the search unit 60 ends the processing. Note that the search unit 60 repeatedly performs the processes from step S14 to before the end of the process for the number of times corresponding to the number of item objects. That is, the above determination is repeated as many times as the number of item objects included in the group object, and each item object is also operated in correspondence with the operation of the group object and the operation of the key object. Specifically, when the group object is moved, each item object included in the group object is also moved according to the movement. By performing the control in this way, the search unit 60 can perform an operation according to the item object touched by the operator.

また、検索部60は、画面上にグループオブジェクトが複数ある場合はそれぞれのグループオブジェクトに対してステップS16の判定を行い、Aモードキーオブジェクトが複数ある場合はそれぞれのAモードキーオブジェクトに対してステップS20の判定を行い、Bモードキーオブジェクトが複数ある場合はそれぞれのBモードキーオブジェクトに対してステップS24の判定を行う。   If there are a plurality of group objects on the screen, the search unit 60 performs the determination in step S16 for each group object. If there are a plurality of A mode key objects, the search unit 60 performs a step for each A mode key object. The determination in S20 is performed, and if there are a plurality of B mode key objects, the determination in step S24 is performed for each B mode key object.

次に、図5、図6−1から図6−5を用いて、オブジェクト吸着Aモードについて説明する。図5は、オブジェクト吸着Aモードに移行した場合の携帯電子通信機器の処理動作の一例を示すフロー図である。ここで、オブジェクト吸着Aモードとは、キーオブジェクトとグループオブジェクトとの距離に応じて、グループオブジェクトの中から抽出する項目オブジェクトの適合率の範囲を変動させるモードである。つまり、キーオブジェクトとグループオブジェクトとの距離に応じて、キーオブジェクトに吸着させる項目オブジェクトの適合率の閾値を変動させるモードである。具体的には、キーオブジェクトとグループオブジェクトとの距離が近いほど、抽出する項目オブジェクトの適合率の範囲を広くし、適合率の低い項目オブジェクトも抽出し、キーオブジェクトとグループオブジェクトとの距離が遠いほど、抽出する項目オブジェクトの適合率の範囲を狭くし、適合率の高い項目オブジェクトのみ抽出する。なお、本実施形態では、適合率の高い項目オブジェクトから順に抽出する設定となっているため、適合率の範囲が広くなると、適合率がより低い項目オブジェクトも抽出することになる。   Next, the object adsorption A mode will be described with reference to FIGS. 5 and 6-1 to 6-5. FIG. 5 is a flowchart showing an example of the processing operation of the portable electronic communication device when the mode is shifted to the object adsorption A mode. Here, the object adsorption A mode is a mode in which the range of the relevance ratio of the item object extracted from the group object is changed according to the distance between the key object and the group object. That is, in this mode, the threshold value of the matching rate of the item object to be attracted to the key object is changed according to the distance between the key object and the group object. Specifically, the closer the distance between the key object and the group object, the wider the range of precision of the item object to be extracted, and also extract the item objects with low precision, and the distance between the key object and the group object is far The range of the matching rate of the item object to be extracted is narrowed, and only the item objects having a high matching rate are extracted. In the present embodiment, since the setting is such that item objects with a high relevance rate are extracted in order, when the range of the relevance rate is wide, item objects with a lower relevance rate are also extracted.

まず、検索部60は、ステップS22で、オブジェクト吸着Aモードに移行したら、ステップS30として、キーオブジェクトと対象グループオブジェクトとの距離を算出する。ここで、キーオブジェクトは、操作者により移動しているため、キーオブジェクトの位置は、ステップS30での計算時に検出されるキーオブジェクトの位置となる。また、グループオブジェクトの基準とする位置は、グループオブジェクトの領域の予め設定してある位置であり、例えば、領域の中心や、領域の端部である。さらに対象グループオブジェクトとは、絞り込み検索を行う対象となるグループオブジェクトである。   First, when the search unit 60 shifts to the object adsorption A mode in step S22, the search unit 60 calculates the distance between the key object and the target group object in step S30. Here, since the key object has been moved by the operator, the position of the key object is the position of the key object detected during the calculation in step S30. The reference position of the group object is a preset position of the area of the group object, for example, the center of the area or the end of the area. Furthermore, the target group object is a group object to be subjected to a narrowing search.

検索部60は、ステップS30で距離を算出したら、ステップS32として、オブジェクト間(キーオブジェクトとグループオブジェクトと)の距離がD以内であるかを判定する。ここで、距離Dとは、キーオブジェクトとグループオブジェクトとの距離が所定以上離れている距離であり、絞り込み検索を行わないと設定されている距離である。   After calculating the distance in step S30, the search unit 60 determines whether the distance between the objects (key object and group object) is within D in step S32. Here, the distance D is a distance in which the distance between the key object and the group object is a predetermined distance or more, and is a distance that is set not to perform a narrowing search.

検索部60は、ステップS32でオブジェクト間の距離がD以内である(Yes)と判定したら、ステップS34として、吸着保留タイマーを停止する。なお、吸着保留タイマーは、オブジェクト間の距離がDよりも大きい場合に作動するタイマーである。詳しくは後ほど後述する。なお、対象グループオブジェクトが、後述する吸着保留モードである場合は、吸着保留タイマーを停止した後、後述する吸着モードに移行する。   If it is determined in step S32 that the distance between the objects is within D (Yes), the search unit 60 stops the suction hold timer in step S34. The adsorption hold timer is a timer that operates when the distance between objects is greater than D. Details will be described later. If the target group object is in a suction hold mode described later, the suction hold timer is stopped, and then the suction group mode described later is entered.

検索部60は、ステップS34で吸着保留タイマーを停止させたら、ステップS36として、対象グループオブジェクトは、通常モードであるかを判定する。ここで、通常モードとは、初期状態のモードであり、グループオブジェクト内の項目オブジェクトの、キーオブジェクトに対する適合率が算出されていない状態である。検索部60は、ステップS36で対象グループオブジェクトが通常モードではない(No)と判定したらステップS42に進む。なお、ステップS36で通常モードでない場合は、吸着モードが選択されている。   After stopping the suction hold timer in step S34, the search unit 60 determines whether the target group object is in the normal mode as step S36. Here, the normal mode is a mode in an initial state, and is a state in which the relevance ratio of the item object in the group object to the key object is not calculated. If it is determined in step S36 that the target group object is not in the normal mode (No), the search unit 60 proceeds to step S42. If the normal mode is not selected in step S36, the suction mode is selected.

検索部60は、ステップS36で、対象グループオブジェクトが通常モードである(Yes)と判定したら、ステップS38として、オブジェクト状態を吸着モードに移行する。つまり、オブジェクト状態を通常モードから吸着モードに移行する。検索部60は、ステップS38で吸着モードに移行したら、ステップS40として、対象グループオブジェクトをキーオブジェクトで検索する。具体的には、キーオブジェクトに対する適合率を、対象グループオブジェクトに所属する(含まれる)項目オブジェクト毎に算出する。   If it is determined in step S36 that the target group object is in the normal mode (Yes), the search unit 60 shifts the object state to the suction mode in step S38. That is, the object state is shifted from the normal mode to the suction mode. When the search unit 60 shifts to the suction mode in step S38, the search unit 60 searches for the target group object with the key object in step S40. Specifically, the relevance ratio for the key object is calculated for each item object belonging to (included in) the target group object.

検索部60は、ステップS40で各項目オブジェクトの適合率を算出したら、または、ステップS36でNoと判定したら、ステップS42として、距離間から吸着する適合率を算出する。つまり、ステップS30で算出した、キーオブジェクトと対象グループオブジェクトとの距離に基づいて、キーオブジェクトに吸着させる適合率の範囲を算出する。ここで、適合率の範囲は、上述したように、距離が狭いほど広い範囲が算出され、遠いほど狭い範囲が算出される。   If the relevance ratio of each item object is calculated in step S40 or if it is determined No in step S36, the search unit 60 calculates the relevance ratio to be attracted from the distance as step S42. That is, based on the distance between the key object and the target group object calculated in step S30, the range of the relevance ratio to be attracted to the key object is calculated. Here, as described above, as the range of the relevance ratio, a wider range is calculated as the distance is smaller, and a narrower range is calculated as the distance is longer.

検索部60は、ステップS42で適合率の範囲を算出したら、ステップS44として吸着対象を取り出し表示する。つまり、グループオブジェクトに含まれる項目オブジェクトの中から、ステップS40で算出した適合率が、ステップS42で算出した適合率の範囲に含まれる項目オブジェクトを抽出し、抽出した項目オブジェクトを吸着対象として、キーオブジェクトの周囲に表示させる。検索部60は、ステップS44で、吸着対象をキーオブジェクトの周囲に表示させたら、ステップS52に進む。   After calculating the range of the relevance ratio in step S42, the retrieval unit 60 takes out the suction target and displays it in step S44. In other words, from the item objects included in the group object, the item object whose extraction ratio calculated in step S40 is included in the range of the adjustment ratio calculated in step S42 is extracted, and the extracted item object is used as a suction target. Display around the object. When the retrieval unit 60 displays the suction target around the key object in step S44, the process proceeds to step S52.

次に、検索部60はステップS32でオブジェクト間の距離がD以内ではない(No)と判定したら、つまり、オブジェクト間の距離がDより大きいと判定したら、ステップS46として、対象グループオブジェクトが吸着モードであるかを判定する。検索部60は、ステップS46で吸着モードではない(No)と判定したら、ステップS52に進む。   Next, if it is determined in step S32 that the distance between the objects is not within D (No), that is, if the distance between the objects is determined to be greater than D, the search unit 60 determines that the target group object is in the suction mode in step S46. It is determined whether it is. If the search unit 60 determines that the suction mode is not set (No) in step S46, the search unit 60 proceeds to step S52.

検索部60は、ステップS46で吸着モードである(Yes)と判定したら、ステップS48として、オブジェクト状態を吸着保留モードに移行する。つまり対象グループオブジェクトのモードを吸着保留モードにする。ここで、吸着保留モードとは、適合率の範囲を算出や、対象グループオブジェクトから項目オブジェクトの抽出を行わない処理である。また、上述したように、対象グループオブジェクトとキーオブジェクトとが一定距離以上離れた状態となっている。   If it is determined in step S46 that the suction mode is in the suction mode (Yes), the search unit 60 shifts the object state to the suction hold mode in step S48. That is, the mode of the target group object is set to the suction hold mode. Here, the suction hold mode is a process that does not calculate the range of the relevance rate and does not extract the item object from the target group object. Further, as described above, the target group object and the key object are in a state of being separated by a certain distance or more.

検索部60は、ステップS48で吸着保留モードに移行したら、ステップS50として、吸着保留タイマーのカウントを開始する。ここで、吸着保留タイマーとは、吸着保留モードから通常モードに移行するかの判定の基準となる計測手段である。なお、時間の計測は、装置に内蔵されている時間計測手段や、時間計測ソフトを利用することで実行することができる。検索部60は、ステップS50で、タイマーのカウントを開始したら、ステップS52に進む。なお、検索部60は、ステップS30から、ステップS52の直前までの処理をオブジェクト分繰り返して行う。つまり、対象グループオブジェクトが複数選択されている場合は、それぞれのグループに対して、上記処理を行う。   When the search unit 60 shifts to the suction hold mode in step S48, the search unit 60 starts counting the suction hold timer in step S50. Here, the suction hold timer is a measuring unit that serves as a reference for determining whether to shift from the suction hold mode to the normal mode. Note that the time measurement can be executed by using time measurement means built in the apparatus or time measurement software. When the search unit 60 starts counting the timer in step S50, the search unit 60 proceeds to step S52. Note that the search unit 60 repeats the processing from step S30 to immediately before step S52 for each object. That is, when a plurality of target group objects are selected, the above processing is performed for each group.

次に、検索部60は、ステップS46でNoと判定されたら、ステップS44またはステップS50の処理が終了したら、ステップS52として、吸着保留タイマーがタイムアウトしたかを判定する。なお、タイムアウトの基準となる時間は予め設定されている。   Next, when it is determined No in step S46, the search unit 60 determines whether the suction hold timer has timed out in step S52 when the process of step S44 or step S50 is completed. Note that the time used as a reference for the timeout is set in advance.

検索部60は、ステップS52でタイムアウトしていない(No)と判定したら、ステップS58に進む。検索部60は、ステップS52でタイムアウトした(Yes)と判定したら、ステップS54として、オブジェクト状態を通常モードに移行する。つまり、オブジェクト状態を吸着保留モードから通常モードに移行する。なお、吸着モードの場合は、吸着保留タイマーがカウントされないため、ステップS54には進まない。検索部60は、ステップS54で通常モードに移行したら、ステップS56として、対象グループオブジェクトの検索情報を破棄する。つまり、ステップS40で算出した、対象グループオブジェクトに含まれる各項目オブジェクトの、キーオブジェクトに対する適合率の情報を破棄する。その後、検索部60は、ステップS58に進む。   If the search unit 60 determines in step S52 that the timeout has not occurred (No), the search unit 60 proceeds to step S58. If it is determined in step S52 that the time-out has occurred (Yes), the search unit 60 shifts the object state to the normal mode in step S54. That is, the object state is shifted from the suction hold mode to the normal mode. In the case of the suction mode, the suction hold timer is not counted, and the process does not proceed to step S54. When the search unit 60 shifts to the normal mode in step S54, the search unit 60 discards the search information of the target group object in step S56. That is, the information on the relevance ratio of each item object included in the target group object calculated in step S40 with respect to the key object is discarded. Thereafter, the search unit 60 proceeds to step S58.

検索部60は、ステップS52でNoと判定したら、または、ステップS56の処理を終了したら、ステップS58としてドラッグ状態は解放されたかを判定する。つまり、操作者による入力デバイスへの入力が終了し、キーオブジェクトが選択されていない状態となっているかを判定する。検索部60は、ステップS58でドラッグ状態が解除されていない(No)と判定したら、ステップS30に進み上記処理を繰り返す。また、検索部60は、ステップS58で、ドラッグ状態が解除された(Yes)と判定したら、処理を終了する。   When it is determined No in step S52 or when the process of step S56 is completed, the search unit 60 determines whether the drag state is released as step S58. That is, it is determined whether the input to the input device by the operator is finished and the key object is not selected. If it is determined in step S58 that the drag state has not been released (No), the search unit 60 proceeds to step S30 and repeats the above process. If the search unit 60 determines in step S58 that the drag state has been released (Yes), the search unit 60 ends the process.

次に、図6−1から図6−5を用いて、具体的な操作例の一例を説明する。ここで、図6−1から図6−5は、それぞれオブジェクト吸着Aモードで操作が行われた場合の携帯電子通信機器の動作を説明するための説明図である。なお、図6−1から図6−5は、画面表示の一例を示している。また、図6−1から図6−5に示す説明図では、1つのグループオブジェクト及びそれに含まれる項目オブジェクトと、4つのAモードキーオブジェクトのみを示し、他のグループオブジェクト及びそれに含まれる項目オブジェクトとキーオブジェクトの図示は省略している。   Next, an example of a specific operation example will be described with reference to FIGS. 6-1 to 6-5. Here, FIGS. 6-1 to 6-5 are explanatory diagrams for explaining the operation of the portable electronic communication device when the operation is performed in the object adsorption A mode. FIGS. 6-1 to 6-5 show examples of screen display. In the explanatory diagrams shown in FIGS. 6A to 6E, only one group object and item objects included in the group object and four A-mode key objects are illustrated, and other group objects and item objects included in the group object are included. The key object is not shown.

まず、図6−1に示すように、キーオブジェクトの1つ、本実施形態では「単独」のキーオブジェクト106aに対応する領域が操作者によりタッチされると、検索部60は、「単独」のキーオブジェクト106aが選択されたと判定して、オブジェクト吸着Aモードに移行する。   First, as shown in FIG. 6A, when the operator touches an area corresponding to one of the key objects, in this embodiment, the “single” key object 106a, the search unit 60 displays “single”. It determines with the key object 106a having been selected, and transfers to object adsorption | suction A mode.

次に、操作者により「単独」のキーオブジェクト106aが移動され、図6−2に示すように、キーオブジェクト106aとグループオブジェクト102aとの距離が一定距離以内となると、グループオブジェクト102aが吸着モードとなり、グループオブジェクト102aに含まれる各項目オブジェクトの、キーオブジェクト106aの検索条件に対する適合率を算出する。本実施形態では、項目オブジェクトが画像ファイルであり、キーオブジェクトが「単独」であるので、人物が単独で写っている画像ファイルであるかを判断基準として適合率(この場合は一致率にもなる)を算出する。なお、適合率の高さは、完全に一人で写っていると判定できる画像ファイルが適合率100%となり、不明瞭な状態になったり、小さく他の人物が写っていると判定できたりという画像ファイルでは、適合率が低くなる。また、画像に何か写っているかは、画像解析ソフト、顔認識システムを用いることで、自動的に解析することができる。検索部60は、各項目オブジェクトの適合率を算出したら、キーオブジェクト106aとグループオブジェクト102aとの距離に基づいて、吸着させる項目オブジェクトの適合率の範囲を算出し、グループオブジェクト102aの項目オブジェクトの中から、その適合率の範囲に含まれる適合率の項目オブジェクトを抽出し、図6−2に示すように、抽出した項目オブジェクト104aを、「単独」のキーオブジェクト106a側に移動させて、キーオブジェクト106aに吸着された状態とする。   Next, the “single” key object 106a is moved by the operator, and as shown in FIG. 6B, when the distance between the key object 106a and the group object 102a is within a certain distance, the group object 102a enters the suction mode. The relevance ratio of each item object included in the group object 102a to the search condition of the key object 106a is calculated. In this embodiment, since the item object is an image file and the key object is “single”, the relevance rate (in this case, the matching rate is also determined) based on whether the item object is an image file in which the person is shown alone. ) Is calculated. The high relevance rate is that the image file that can be determined to be completely photographed alone is 100% relevance rate, and the image can be determined to be indistinct or small and other people can be captured. For files, the precision is low. Moreover, whether something is reflected in the image can be automatically analyzed by using image analysis software and a face recognition system. After calculating the relevance rate of each item object, the search unit 60 calculates the range of relevance rates of the item objects to be attracted based on the distance between the key object 106a and the group object 102a, and among the item objects of the group object 102a. Then, an item object of the matching rate included in the range of the matching rate is extracted, and the extracted item object 104a is moved to the “single” key object 106a side as shown in FIG. The state is adsorbed by 106a.

また、「単独」のキーオブジェクト106aが図6−2に示す位置からさらにグループオブジェクト102a側に移動され、キーオブジェクト106aとグループオブジェクト102aとの距離が狭く(短く)なったら、吸着させる項目オブジェクトの適合率の範囲がより広く算出され、より適合率の低い項目オブジェクトも抽出され、図6−3に示すように、より多くの項目オブジェクト104bが「単独」のキーオブジェクト106aに吸着された状態となる。   Further, when the “single” key object 106a is moved further to the group object 102a side from the position shown in FIG. 6B and the distance between the key object 106a and the group object 102a becomes narrower (shorter), the item object to be picked up is displayed. The range of the relevance ratio is calculated more widely, and item objects with a lower relevance ratio are also extracted. As shown in FIG. 6C, a state in which more item objects 104b are attracted to the “single” key object 106a. Become.

次に、操作者が入力デバイス34から手を離し、入力デバイス34にタッチしていない状態としてドラッグ状態を解除すると、検索部60により抽出(吸着)される項目オブジェクトが確定される。つまり、抽出する項目オブジェクトの適合率の範囲が確定し、その適合率の範囲を満たす項目オブジェクトが抽出される。抽出された項目オブジェクトの集団は、新たなグループオブジェクト102bとなる。   Next, when the operator releases the input device 34 and releases the drag state in a state where the input device 34 is not touched, the item object to be extracted (sucked) by the search unit 60 is determined. That is, the range of the relevance ratio of the item object to be extracted is determined, and the item objects satisfying the range of the relevance ratio are extracted. The group of extracted item objects becomes a new group object 102b.

次に、操作者が、図6−4に示すように、抽出した項目オブジェクトの集団にタッチして、抽出した項目オブジェクトの集団を元のグループオブジェクト102aから離すと、図6−5に示すように、新たなグループオブジェクト102bとして分離して表示される。また、このとき新たなグループオブジェクト102bは、元のグループオブジェクト102aの名称にキーオブジェクト106aの名称を加えたものとなる。つまり、抽出に用いた検索条件がグループオブジェクト102bの名称として表示される。これにより、グループオブジェクトの属性をわかりやすくすることができる。   Next, when the operator touches the group of extracted item objects as shown in FIG. 6-4 and moves the group of extracted item objects away from the original group object 102a, as shown in FIG. 6-5. Are displayed separately as a new group object 102b. At this time, the new group object 102b is obtained by adding the name of the key object 106a to the name of the original group object 102a. That is, the search condition used for extraction is displayed as the name of the group object 102b. This makes it easier to understand the attributes of the group object.

次に、図7−1から図12を用いて、オブジェクト吸着Bモードについて説明する。図7−1及び図7−2は、オブジェクト吸着Bモードに移行した場合の携帯電子通信機器の処理動作の一例を示すフロー図である。ここで、オブジェクト吸着Bモードは、キーオブジェクトがグループオブジェクト内で移動した距離に応じて、グループオブジェクトの中から抽出する項目オブジェクトの適合率の範囲を変動させるモードである。つまり、キーオブジェクトがグループオブジェクト内で移動した距離に応じて、キーオブジェクトに吸着させる項目オブジェクトの適合率の閾値を変動させるモードである。具体的には、キーオブジェクトがグループオブジェクト内で移動した距離が長いほど、抽出する項目オブジェクトの適合率の範囲を広くし、適合率の低い項目オブジェクトも抽出し、キーオブジェクトがグループオブジェクト内で移動した距離が短いほど、抽出する項目オブジェクトの適合率の範囲を狭くし、適合率の高い項目オブジェクトのみ抽出する。なお、本実施形態でも、適合率の高い項目オブジェクトから順に抽出する設定となっているため、適合率の範囲が広くなると、適合率がより低い項目オブジェクトも抽出することになる。   Next, the object adsorption B mode will be described with reference to FIGS. FIGS. 7A and 7B are flowcharts illustrating an example of the processing operation of the portable electronic communication device when the mode is shifted to the object adsorption B mode. Here, the object adsorption B mode is a mode in which the range of the relevance ratio of the item object extracted from the group object is changed according to the distance that the key object moves in the group object. That is, in this mode, the threshold value of the matching rate of the item object to be attracted to the key object is changed according to the distance that the key object has moved within the group object. Specifically, the longer the distance that the key object moves within the group object, the wider the range of precision of the item object to be extracted, and also extract the item objects with low precision, and the key object moves within the group object. The shorter the distance is, the narrower the range of the matching rate of the item objects to be extracted, and only the item objects having a high matching rate are extracted. In this embodiment, the setting is such that the item objects having the highest relevance ratio are extracted in order, so that when the range of the relevance ratio is widened, the item objects having a lower relevance ratio are also extracted.

まず、検索部60は、ステップS26でオブジェクト吸着Bモードに移行したら、ステップS60として、グループオブジェクトの領域内であるかを判定する。つまり、キーオブジェクトを操作している状態で、タッチ座標がグループオブジェクトの領域内であるかを判定する。すなわち、キーオブジェクトをグループオブジェクトの領域内まで移動させた状態であるかを判定する。   First, when the search unit 60 shifts to the object adsorption B mode in step S26, the search unit 60 determines in step S60 whether it is within the group object region. That is, it is determined whether the touch coordinates are within the group object area while the key object is being operated. That is, it is determined whether the key object has been moved to the area of the group object.

検索部60は、ステップS60でグループオブジェクトの領域内である(Yes)と判定したら、ステップS62として、吸着保留タイマーを停止する。なお、吸着保留タイマーとは、キーオブジェクトがグループオブジェクトの領域内にはない場合に時間がカウントされるタイマーであり、グループオブジェクトのオブジェクト状態が後述する吸着保留モードの場合に使用される。   If it is determined in step S60 that the area is within the group object (Yes), the search unit 60 stops the adsorption suspension timer in step S62. The adsorption hold timer is a timer that counts time when the key object is not within the area of the group object, and is used when the object state of the group object is an adsorption hold mode to be described later.

検索部60は、ステップS62で吸着保留タイマーを停止させたら、ステップS64として、対象グループオブジェクトの状態(オブジェクト状態)は吸着モードかを判定する。ここで、対象グループオブジェクトとは、項目オブジェクトの抽出の対象となるグループオブジェクトである。また、吸着モードとは、グループオブジェクトに含まれる各項目オブジェクトの、キーオブジェクトに対する適合率が算出され、キーオブジェクトに対象グループオブジェクトを吸着させることができるモードである。なお、吸着モードは後述するステップS92、ステップS94の処理を行うことで移行可能となる。また、吸着保留モードの場合は、吸着保留タイマーを停止することで、吸着モードに移行する。   After stopping the suction hold timer in step S62, the search unit 60 determines in step S64 whether the state (object state) of the target group object is the suction mode. Here, the target group object is a group object from which item objects are extracted. The adsorption mode is a mode in which the relevance ratio of each item object included in the group object to the key object is calculated, and the target group object can be attracted to the key object. Note that the suction mode can be shifted by performing the processing of step S92 and step S94 described later. In the suction hold mode, the suction hold timer is stopped to shift to the suction mode.

検索部60は、ステップS64で吸着モードである(Yes)と判定したら、ステップS66として、前回座標と現座標、前回時間と現時間から移動距離と速度を算出する。その後、検索部60は、ステップS68として、移動距離(もしくは速度)から減算する適合率を算出し、取得適合率に減算する。ここで、取得適合率とは、閾値となる適合率である。本実施形態では、適合率が高い項目オブジェクトから順に抽出させるため、移動距離に基づいて減算する適合率を算出して、下限値となる取得適合率を設定することで、抽出する項目オブジェクトの適合率の範囲を設定することができる。また、座標と時間の検出タイミングが同一であるため、移動距離と移動速度は、比例関係となるため、移動距離、速度のどちらを用いて算出しても算出される取得適合率は、同一となる。   If it is determined in step S64 that the suction mode is selected (Yes), the search unit 60 calculates the moving distance and speed from the previous coordinate and current coordinate, the previous time and current time, as step S66. Thereafter, in step S68, the search unit 60 calculates a precision that is subtracted from the movement distance (or speed), and subtracts it from the acquired precision. Here, the acquired matching rate is a matching rate that is a threshold value. In this embodiment, in order to extract the item objects in descending order of the matching rate, the matching rate to be subtracted based on the moving distance is calculated, and the acquisition matching rate that is the lower limit value is set, thereby matching the item object to be extracted. A range of rates can be set. In addition, since the detection timing of the coordinate and time is the same, the movement distance and the movement speed are in a proportional relationship, so the acquisition precision calculated by using either the movement distance or the speed is the same. Become.

検索部60は、ステップS68で取得適合率を算出したら、ステップS70として取得適合率以上の項目オブジェクトは存在するかを判定する。つまり、適合率の範囲に含まれる適合率の項目オブジェクトがあるかを判定する。検索部60は、ステップS70で、取得適合率以上の項目オブジェクトは存在する(Yes)と判定したら、ステップS72として、取得適合率以上の項目オブジェクトをキーオブジェクトに移動させる。つまり、適合率の範囲に含まれる適合率の項目オブジェクトをキーオブジェクトに吸着させる。その後、ステップS88に進む。また、検索部60は、ステップS70で、取得適合率以上の項目オブジェクトは存在しない(No)と判定したら、吸着させる項目オブジェクトは存在しないため、ステップS88に進む。なお、ステップS70、ステップS72で、対象となる項目オブジェクトは、前回処理分の差分の項目オブジェクトとしてもよい。つまり新たに吸着させる項目オブジェクトがあるか否かを判定し、新たに吸着させる項目オブジェクトがある場合は、キーオブジェクトに吸着させるようにしてもよい。   After calculating the acquired matching rate in step S68, the search unit 60 determines whether there is an item object equal to or higher than the acquired matching rate in step S70. That is, it is determined whether there is an item object with a matching rate included in the range of the matching rate. If it is determined in step S70 that there is an item object equal to or higher than the acquired matching rate (Yes), the search unit 60 moves the item object equal to or higher than the acquired matching rate to the key object in step S72. That is, the item object having the matching rate included in the matching rate range is attracted to the key object. Thereafter, the process proceeds to step S88. If the search unit 60 determines in step S70 that there are no item objects equal to or higher than the acquired matching rate (No), the search unit 60 proceeds to step S88 because there is no item object to be attracted. In step S70 and step S72, the target item object may be a difference item object for the previous process. That is, it is determined whether or not there is an item object to be newly attracted, and when there is an item object to be newly attracted, the key object may be attracted.

次に、検索部60は、ステップS64で吸着モードではない(No)と判定したら、ステップS74として、対象グループオブジェクトのオブジェクト状態は通常モードであるかを判定する。検索部60は、ステップS74で通常モードではない(No)と判定したら、ステップS88に進む。また、検索部60は、ステップS74で、通常モードである(Yes)と判定したら、ステップS76として、オブジェクト状態を吸着候補モードに移行し、ステップS78として、吸着候補タイマーのカウントを開始させた後、ステップS88に進む。ここで、吸着候補モードとは、通常モードから吸着モードに移行する間に設定されているモードである。吸着候補モードである間は、キーオブジェクトがグループオブジェクトの領域内あっても吸着は行われない。また、吸着候補モードで一定時間、キーオブジェクトがグループオブジェクトの領域内にあると吸着モードに移行する。これにより、吸着開始前に、キーオブジェクトを移動させるため、所望のグループオブジェクト以外のグループオブジェクトの領域を短時間で通過しても、通過したグループオブジェクトの項目オブジェクトを吸着させないようにすることができる。   Next, if it is determined in step S64 that the suction mode is not set (No), the search unit 60 determines in step S74 whether the object state of the target group object is the normal mode. If it is determined in step S74 that the mode is not the normal mode (No), the search unit 60 proceeds to step S88. If the search unit 60 determines in step S74 that the normal mode is selected (Yes), the object state is shifted to the suction candidate mode in step S76, and the counting of the suction candidate timer is started in step S78. The process proceeds to step S88. Here, the suction candidate mode is a mode set during the transition from the normal mode to the suction mode. During the suction candidate mode, suction is not performed even if the key object is within the group object area. Further, when the key object is within the group object area for a certain period of time in the suction candidate mode, the mode shifts to the suction mode. Accordingly, since the key object is moved before the suction starts, the item object of the group object that has passed can be prevented from being sucked even if the key object is moved through the area of the group object other than the desired group object in a short time. .

次に、検索部60は、ステップS60でグループオブジェクトの領域内にはない(No)と判定したら、ステップS80として、吸着候補タイマーを停止する。検索部60は、ステップS80で吸着候補タイマーを停止させたら、ステップS82として、対象グループオブジェクトのオブジェクト状態は、吸着モードであるかを判定する。検索部60は、ステップS82で吸着モードでない(No)と判定したら、ステップS88に進む。また、検索部60は、ステップS82で吸着モードである(Yes)と判定したら、ステップS84として、オブジェクト状態を吸着保留モードに移行した後、ステップS86として、吸着保留タイマーを開始する。なお、ステップS84とステップS86は、図5に示すフロー図のステップS48とステップS50と同様の処理であるので、説明は省略する。なお、検索部60は、ステップS60から、ステップS88の直前までの処理をオブジェクト分繰り返して行う。つまり、対象グループオブジェクトが複数選択されている場合は、それぞれのグループに対して、上記処理を行う。   Next, if it is determined in step S60 that the area is not within the group object area (No), the search unit 60 stops the adsorption candidate timer in step S80. After stopping the adsorption candidate timer in step S80, the search unit 60 determines in step S82 whether the object state of the target group object is the adsorption mode. If it is determined in step S82 that the suction mode is not set (No), the search unit 60 proceeds to step S88. If it is determined in step S82 that the suction mode is selected (Yes), in step S84, the search unit 60 shifts the object state to the suction hold mode, and then starts a suction hold timer in step S86. Steps S84 and S86 are the same processes as steps S48 and S50 in the flowchart shown in FIG. Note that the search unit 60 repeats the processing from step S60 to immediately before step S88 for each object. That is, when a plurality of target group objects are selected, the above processing is performed for each group.

次に、検索部60は、ステップS70、ステップS74、ステップS82でNoと判定されたら、ステップS72、ステップS78、ステップS86の処理が終了したら、ステップS88として現座標を前回座標とし、現時間を前回座標に退避させる。つまり、座標と時間を更新する。検索部60は、ステップS88で座標と時間を更新したら、ステップS90として、吸着候補タイマーがタイムアウトしたかを判定する。つまり、キーオブジェクトが対象グループオブジェクトの領域に入った状態で一定時間以上経過したかを判定する。   Next, when it is determined No in Step S70, Step S74, and Step S82, the search unit 60 ends the processing of Step S72, Step S78, and Step S86, sets the current coordinates to the previous coordinates, and sets the current time as Step S88. Retreat to the previous coordinate. That is, the coordinates and time are updated. When the coordinates and time are updated in step S88, the search unit 60 determines whether the adsorption candidate timer has timed out in step S90. That is, it is determined whether or not a certain period of time has elapsed with the key object entering the area of the target group object.

検索部60は、ステップS90で、タイムアウトした(Yes)と判定したら、ステップS92として、オブジェクト状態を吸着モードに移行した後、ステップS94として、対象グループオブジェクトをキーオブジェクトで検索する。具体的には、キーオブジェクトに対する適合率を、対象グループオブジェクトに所属する(含まれる)項目オブジェクト毎に算出する。検索部60は、ステップS94で検索を行ったら、ステップS102に進む。   If it is determined in step S90 that the time-out has occurred (Yes), the search unit 60 shifts the object state to the suction mode in step S92, and then searches for the target group object with the key object in step S94. Specifically, the relevance ratio for the key object is calculated for each item object belonging to (included in) the target group object. After performing the search in step S94, the search unit 60 proceeds to step S102.

また、検索部60は、ステップS90でタイムアウトしていない(No)と判定したら、ステップS96として、吸着保留タイマーがタイムアウトしたかを判定する。検索部60は、ステップS96でタイムアウトしていない(No)と判定したら、ステップS102に進む。検索部60は、ステップS96でタイムアウトした(Yes)と判定したら、ステップS98として、オブジェクト状態を通常モードに移行する。つまり、オブジェクト状態を吸着保留モードから通常モードに移行する。次に、検索部60は、ステップS98で通常モードに移行したら、ステップS100として、対象グループオブジェクトの検索情報を破棄する。つまり、ステップS94で算出した、対象グループオブジェクトに含まれる各項目オブジェクトの、キーオブジェクトに対する適合率の情報を破棄する。その後、検索部60は、ステップS102に進む。   If it is determined in step S90 that the timeout has not occurred (No), the search unit 60 determines in step S96 whether the adsorption suspension timer has timed out. If it is determined in step S96 that the timeout has not occurred (No), the search unit 60 proceeds to step S102. If it is determined in step S96 that the time-out has occurred (Yes), the search unit 60 shifts the object state to the normal mode in step S98. That is, the object state is shifted from the suction hold mode to the normal mode. Next, when the search unit 60 shifts to the normal mode in step S98, the search unit 60 discards the search information of the target group object in step S100. That is, the information on the relevance ratio of each item object included in the target group object with respect to the key object calculated in step S94 is discarded. Thereafter, the search unit 60 proceeds to step S102.

検索部60は、ステップS96でNoと判定したら、または、ステップS94、ステップS100の処理を終了したら、ステップS102としてドラッグ状態は解除されたかを判定する。つまり、操作者による入力デバイスへの入力が終了し、キーオブジェクトが選択されていない状態となっているかを判定する。検索部60は、ステップS102でドラッグ状態が解除されていない(No)と判定したらステップS60に進み上記処理を繰り返す。また、検索部60は、ステップS102で、ドラッグ状態が解除された(Yes)と判定したら、ステップS104に進む。   When it is determined No in step S96, or when the processes of step S94 and step S100 are completed, the search unit 60 determines whether the drag state is released as step S102. That is, it is determined whether the input to the input device by the operator is finished and the key object is not selected. If it is determined in step S102 that the drag state is not released (No), the search unit 60 proceeds to step S60 and repeats the above process. If the search unit 60 determines in step S102 that the drag state has been released (Yes), the search unit 60 proceeds to step S104.

検索部60は、ステップS104として、対象グループオブジェクトは吸着モードであるかを判定する。検索部60は、ステップS104で吸着モードではない(No)と判定したらそのまま処理を終了する。   In step S104, the search unit 60 determines whether the target group object is in the suction mode. If it is determined in step S104 that the suction mode is not set (No), the search unit 60 ends the process.

検索部60は、ステップS104で吸着モードである(Yes)と判定したら、ステップS106としてオブジェクト状態を叩きモードに移行し、ステップS108に進む。ここで、叩きモードとは、キーオブジェクトが対象グループオブジェクトの領域内にある状態で、入力デバイス34でタップ(クリック)処理を検出したら、取得適合率を変動させ、適合率の範囲を狭くするモードである。   If it is determined in step S104 that the suction mode is selected (Yes), the search unit 60 shifts the object state to the hit mode in step S106, and proceeds to step S108. Here, the hit mode is a mode in which, when a tap (click) process is detected by the input device 34 in a state where the key object is in the target group object region, the acquisition precision is changed and the precision ratio range is narrowed. It is.

検索部60は、ステップS108として、タッチされたかを判定する。つまり、操作者により入力デバイス34がタッチされたかを判定する。検索部60は、ステップS108でタッチされていない(No)と判定したら、ステップS120に進む。また、検索部60は、ステップS108でタッチされている(Yes)と判定したら、ステップS110として、タッチされたのは検索キーオブジェクト、つまり、絞り込み検索を行っているキーオブジェクトかを判定する。検索部60は、ステップS110で、キーオブジェクトがタッチされていない(No)、つまり別の部分がタッチされていると判定した場合は、処理を終了する。   The search part 60 determines whether it was touched as step S108. That is, it is determined whether the input device 34 has been touched by the operator. If the search unit 60 determines that it is not touched (No) in step S108, the search unit 60 proceeds to step S120. If it is determined in step S108 that the touch is made (Yes), the search unit 60 determines in step S110 whether the touched key object is a search key object, that is, a key object that is being narrowed down. If the search unit 60 determines in step S110 that the key object is not touched (No), that is, another part is touched, the search unit 60 ends the process.

検索部60は、ステップS110でキーオブジェクトがタッチされている(Yes)と判定したら、ステップS112として、叩き解除タイマーのカウントを開始する。ここで、叩き解除タイマーとは、叩きモードを解除するかの判定の基準となる計測手段である。検索部60は、ステップS112で叩き解除タイマーを開始したら、ステップS114として、取得適合率を加算する。具体的には、ステップS108で検出したタッチとその前のタッチの解除(ステップS104でドラッグ解除か、前回のステップS108でタッチが解除されたとき)との間隔に応じて、加算する取得適合率を算出する。本実施形態では、時間間隔が長いほど、加算する取得適合率(つまり、取得適合率を変化させる値)を大きくし、時間間隔が短いほど、加算する取得適合率を小さくする。つまり、時間間隔が長いほど、取得適合率を高くする変動幅を大きくして適合率の範囲を狭くし、時間間隔が短いほど、取得適合率を高くする変動幅を小さくして適合率の範囲をあまり狭くしない。   If it is determined in step S110 that the key object is touched (Yes), the search unit 60 starts counting the hit release timer in step S112. Here, the hit release timer is a measuring means that serves as a reference for determining whether to release the hit mode. When the search unit 60 starts the hit release timer in step S112, the search unit 60 adds the acquired adaptation rate as step S114. Specifically, the acquisition precision ratio to be added according to the interval between the touch detected in step S108 and the previous touch release (drag release in step S104 or touch released in the previous step S108). Is calculated. In the present embodiment, as the time interval is longer, the acquisition accuracy rate to be added (that is, a value that changes the acquisition accuracy rate) is increased, and as the time interval is shorter, the acquisition accuracy rate to be added is decreased. In other words, the longer the time interval, the larger the fluctuation range that increases the acquisition accuracy rate and narrows the range of the accuracy rate, and the shorter the time interval, the smaller the fluctuation range that increases the acquisition accuracy rate and the range of the accuracy rate Do not make it too narrow.

検索部60は、ステップS114で取得適合率を加算したら、ステップS116として、取得適合率以下の項目オブジェクトは存在するかを判定する。つまり、キーオブジェクトに吸着させている項目オブジェクトの中に、取得適合率以下(適合率の範囲に含まれない)の項目オブジェクトは存在するかを判定する。検索部60は、ステップS116で取得適合率以下の項目オブジェクトは存在しない(No)と判定したら、ステップS120に進む。また、検索部60は、ステップS116で取得適合率以下の項目オブジェクトは存在する(Yes)と判定したら、ステップS118として、取得適合率以下の項目ブジェクトを元のグループオブジェクトに移動させる。つまり、取得適合率以下の項目オブジェクトをキーオブジェクトに吸着させていた状態から、元のグループオブジェクトに所属している状態に戻す。検索部60は、その後、ステップS120に進む。   After adding the acquired matching rate in step S114, the search unit 60 determines whether there is an item object that is equal to or lower than the acquired matching rate in step S116. That is, it is determined whether there is an item object that is less than or equal to the acquired matching rate (not included in the range of matching rate) among the item objects that are attracted to the key object. If the search unit 60 determines in step S116 that there is no item object that is equal to or less than the acquired matching rate (No), the search unit 60 proceeds to step S120. If it is determined in step S116 that there are item objects equal to or less than the acquisition conformance (Yes), the search unit 60 moves item objects equal to or less than the acquisition conformance to the original group object in step S118. That is, the state where the item object having the acquisition precision or less is attracted to the key object is returned to the state belonging to the original group object. Thereafter, the search unit 60 proceeds to step S120.

検索部60は、ステップS108、ステップS116でNoと判定されたら、また、ステップS118の処理を終了したら、ステップS120として、叩き解除タイマーはタイムアウトしたかを判定する。検索部60は、ステップS120でタイムアウトしていない(No)と判定したらステップS108に進み上記処理を繰り返し、タイムアウトしている(Yes)と判定したら、処理を終了する。つまり、検索部60は、タイムアウトするか、キーオブジェクト以外の領域がタッチされるまで、叩きモードの処理を繰り返し行う。   When it is determined No in step S108 and step S116, and when the process of step S118 is completed, the search unit 60 determines whether the hit release timer has timed out in step S120. If it is determined in step S120 that the timeout has not occurred (No), the search unit 60 proceeds to step S108, repeats the above process, and if determined to have timed out (Yes), ends the process. That is, the search unit 60 repeatedly performs the hit mode processing until a time-out occurs or an area other than the key object is touched.

次に、図8−1から図12を用いて、具体的な操作例の一例を説明する。図8−1から図8−3は、それぞれオブジェクト吸着Bモードで操作が行われた場合の携帯電子通信機器の動作を説明するための説明図である。また、図9は、携帯電子通信機器の動作を説明するためのグラフである。また、図10−1、図10−2及び図11も、それぞれオブジェクト吸着Bモードで操作が行われた場合の携帯電子通信機器の動作を説明するための説明図である。また、図12は、携帯電子通信機器の動作を説明するためのグラフである。なお、図8−1から図8−3、図10−1、図10−2及び図11もそれぞれ、操作の対象に関係のあるグループオブジェクト、キーオブジェクトを表示させ、一部のグループオブジェクト、キーオブジェクトを省略した。   Next, an example of a specific operation example will be described with reference to FIGS. 8A to 8C are explanatory diagrams for explaining the operation of the portable electronic communication device when the operation is performed in the object adsorption B mode. FIG. 9 is a graph for explaining the operation of the portable electronic communication device. FIGS. 10A, 10B, and 11 are also explanatory diagrams for explaining the operation of the portable electronic communication device when the operation is performed in the object adsorption B mode. FIG. 12 is a graph for explaining the operation of the portable electronic communication device. 8A to 8C, FIG. 10A, FIG. 10B, and FIG. 11 also display group objects and key objects related to the operation target, and display some group objects and keys. Omitted the object.

まず、図8−1に示すように、キーオブジェクトの1つ、本実施形態では「複数」のキーオブジェクト106bに対応する領域が操作者によりタッチされると、検索部60は、「複数」のキーオブジェクト106bが選択されたと判定して、オブジェクト吸着Bモードに移行する。   First, as shown in FIG. 8A, when the operator touches one of the key objects, in the present embodiment, the area corresponding to the “plurality” key object 106b, the search unit 60 displays the “plurality”. It determines with the key object 106b having been selected, and transfers to object adsorption | suction B mode.

次に、操作者により「複数」のキーオブジェクト106bが移動される。このとき、キーオブジェクト106bが短時間で通過するとグループオブジェクト102aは、吸着モードにならないため、絞り込み検索は行われず、図8−2に示すように、キーオブジェクト106bには、項目オブジェクトが吸着されない。このように、短時間のみで通過した場合は吸着モードに移行しないように設定することで、キーオブジェクト106bでグループオブジェクト102cの絞り込み検索を行いたい場合でも、キーオブジェクト106bをグループオブジェクト102aの領域を迂回させるように移動させる必要がなくなる。   Next, a plurality of key objects 106b are moved by the operator. At this time, if the key object 106b passes in a short time, the group object 102a does not enter the adsorption mode, so that the narrowing search is not performed, and as shown in FIG. 8B, the item object is not attracted to the key object 106b. In this way, by setting so as not to shift to the suction mode when passing in a short time, even if it is desired to perform a narrowing search of the group object 102c with the key object 106b, the key object 106b is moved to the area of the group object 102a. There is no need to move it around.

また、操作者により操作され、一定時間以上、一定速度以上でキーオブジェクト106bがグループオブジェクト102aの領域内を移動させられると、グループオブジェクト102aが吸着モードとなる。これにより、検索部60は、グループオブジェクト102aに含まれる各項目オブジェクトの、キーオブジェクト106bの検索条件に対する適合率を算出する。本実施形態では、項目オブジェクトが画像ファイルであり、キーオブジェクトが「複数」であるので、人物が複数で写っている画像ファイルであるかを判断基準として適合率(この場合は一致率にもなる)を算出する。なお、適合率の高さは、完全に複数で写っていると判定できる画像ファイルが適合率100%となり、不明瞭な状態になったり、人物と思われる対象が複数写っていると判定できたりという画像ファイルでは、適合率が低くなる。検索部60は、各項目オブジェクトの適合率を算出したら、キーオブジェクト106bの移動距離、移動速度に基づいて、取得適合率(つまり適合率の範囲)を算出し、グループオブジェクト102aの項目オブジェクトの中から、その適合率の範囲に含まれる適合率の項目オブジェクトを抽出し、図8−3に示すように、抽出した項目オブジェクト104cを、「複数」のキーオブジェクト106b側に移動させて、キーオブジェクト106bに吸着された状態とする。   Further, when the key object 106b is moved within the area of the group object 102a by being operated by the operator and moving for a certain period of time or more than a certain speed, the group object 102a enters the suction mode. Thereby, the search unit 60 calculates the relevance ratio of each item object included in the group object 102a with respect to the search condition of the key object 106b. In this embodiment, since the item object is an image file and the key object is “plurality”, the relevance rate (in this case, the matching rate is also determined) based on whether or not the image file includes a plurality of persons. ) Is calculated. Note that the accuracy rate is 100% for an image file that can be determined to be completely captured in multiple images, and it can be determined that the image is indistinct or multiple objects that appear to be people are captured. In the case of the image file, the precision is low. After calculating the relevance ratio of each item object, the search unit 60 calculates the acquired relevance ratio (that is, the range of the relevance ratio) based on the moving distance and moving speed of the key object 106b. Then, an item object of the matching rate included in the range of the matching rate is extracted, and the extracted item object 104c is moved to the “plurality” key object 106b side as shown in FIG. The state is adsorbed by 106b.

ここで、取得適合率は、グループオブジェクトの領域内での移動距離、移動速度に応じて、図9に示すグラフのように変化する。具体的には、図9に示すように、グループオブジェクトの領域内に入って一定時間経過後の時間t1で、オブジェクト状態が吸着モードとなり、取得適合率の算出が開始する。その後、時間t1から時間t2の間のように、キーオブジェクトがゆっくり移動されている間は、取得適合率の変化の割合が小さく、つまり徐々に変化し、時間t2から時間t3の間のように、キーオブジェクトがはやく移動されている間は、取得適合率の変化の割合が大きく、つまり、取得適合率が大きく変化するする。これにより、操作者のキーオブジェクトの移動のさせ方により、適合率の範囲の変化のさせ方を調整することができ、操作性を高くすることができる。   Here, the acquisition matching rate changes as shown in the graph of FIG. 9 according to the moving distance and moving speed in the area of the group object. Specifically, as shown in FIG. 9, at a time t1 after entering a group object region and a predetermined time has elapsed, the object state becomes the suction mode, and the calculation of the acquisition matching rate starts. After that, while the key object is moved slowly, such as between time t1 and time t2, the rate of change of the acquisition precision is small, that is, gradually changes, such as between time t2 and time t3. While the key object is moved quickly, the rate of change of the acquisition precision is large, that is, the acquisition precision changes greatly. Thereby, the way of changing the range of the relevance ratio can be adjusted according to the way the operator moves the key object, and the operability can be improved.

次に、図10−1に示すように、グループオブジェクト内の項目オブジェクト104cがキーオブジェクト106bに吸着された状態で、キーオブジェクトをグループオブジェクトの領域の外に移動させた後、ドラッグ状態から解放させると、図10−2に示すように、新たなグループオブジェクト102dとして分離して表示される。また、このとき新たなグループオブジェクト102dは、元のグループオブジェクト102aの名称にキーオブジェクト106bの名称を加えたものとなる。つまり、抽出に用いた検索条件がグループオブジェクトの名称として表示される。これにより、グループオブジェクトの属性をわかりやすくすることができる。   Next, as shown in FIG. 10A, with the item object 104c in the group object being attached to the key object 106b, the key object is moved out of the group object area and then released from the drag state. As shown in FIG. 10B, the new group object 102d is displayed separately. At this time, the new group object 102d is obtained by adding the name of the key object 106b to the name of the original group object 102a. That is, the search condition used for extraction is displayed as the name of the group object. This makes it easier to understand the attributes of the group object.

また、図11に示すように、キーオブジェクト106bがグループオブジェクト102aの領域内にある状態で、キーオブジェクト106bをドラッグした状態から解放され、また、キーオブジェクト106bにタッチされると、つまり、キーオブジェクト106bがグループオブジェクト102aの領域内にある状態で、キーオブジェクト106bがクリックされると、検索部60は、取得適合率を算出しなおし、取得適合率をより高く変更する。これにより、キーオブジェクトに吸着されている項目オブジェクトのうち、取得適合率以下の適合率の項目オブジェクトは、吸着されている状態からグループオブジェクトに所属している状態に戻る。つまり、吸着されていない状態となる。このように、クリックされたら、取得適合率を高くするようにすることで、項目オブジェクトを吸着させすぎた場合に、適合率の低い項目オブジェクトを外すことができる。このため、処理を最初からやり直すことなく、所望の数の項目オブジェクトを吸着させることが可能となる。   Also, as shown in FIG. 11, when the key object 106b is in the area of the group object 102a and released from the dragged state of the key object 106b, and when the key object 106b is touched, that is, the key object When the key object 106b is clicked in a state where the object 106b is in the area of the group object 102a, the search unit 60 recalculates the acquisition precision and changes the acquisition precision higher. As a result, among the item objects attracted to the key object, the item objects having a conformance rate equal to or lower than the obtained conformance rate return from the attracted state to the state belonging to the group object. That is, it will be in the state which is not adsorbed. As described above, when the item object is clicked, the acquisition accuracy rate is increased, and when the item object is attracted too much, the item object having a low accuracy rate can be removed. For this reason, it is possible to attract a desired number of item objects without redoing the process from the beginning.

ここで、キーオブジェクトのクリック(つまりタップ)により取得適合率を変化させる場合は、図12に示すように、クリックのタイミングによって、取得適合率の変化の割合(傾き)を変化させることが好ましい。例えば、図12に示すように、クリックの間隔がゆっくりの場合は、取得適合率の変化の割合(傾き)を緩やかに、つまり、取得適合率が徐々に上昇するようにし、クリックの間隔が早い(短い間隔でクリックされる)場合は、取得適合率の変化の割合(傾き)を急激に、つまり、取得適合率が急激に上昇するようにすることが好ましい。このように、クリックのタイミング(間隔)によって、取得適合率の変化の割合(傾き)を変化させることで、操作者が項目オブジェクトの吸着状態を簡単かつ適切に調整することが可能となり、操作性を高くすることができる。なお、上記実施形態では、クリックの間隔と時間に基づいて取得変化率を変化させたが、本発明はこれに限定されず、一回のクリックで変換させる取得適合率を予め設定しておき、クリックの回数に基づいて、取得適合率の変化量(変化させる割合)を決定するようにしてもよい。   Here, when the acquisition precision is changed by clicking (that is, tapping) the key object, it is preferable to change the rate of change (slope) of the acquisition precision according to the timing of the click, as shown in FIG. For example, as shown in FIG. 12, when the click interval is slow, the rate of change (slope) of the acquisition precision is gradually increased, that is, the acquisition precision is gradually increased, and the click interval is fast. In the case of (clicked at a short interval), it is preferable to make the rate of change (slope) of the acquisition accuracy rate abruptly, that is, the acquisition accuracy rate rapidly increases. In this way, by changing the rate of change (slope) of the acquisition precision according to the timing (interval) of the click, the operator can easily and appropriately adjust the adsorption state of the item object. Can be high. In the above embodiment, the acquisition change rate is changed based on the click interval and time.However, the present invention is not limited to this, and the acquisition accuracy rate to be converted in one click is set in advance. Based on the number of clicks, the amount of change (the rate of change) of the acquisition precision may be determined.

携帯電子通信機器10は、このように、グループオブジェクトとキーオブジェクトとの位置関係に基づいて、抽出する項目オブジェクトの適合率の範囲を算出し、適合率の範囲を満たす項目オブジェクトを抽出するようにすることで、操作者が、視覚的に検索結果の状態を認識することができる。これにより、操作者の所望の検索結果を簡単に得ることが可能となる。また、操作者の操作により適合率の程度を簡単に調整することが可能となることで、操作者の操作性を高くすることができる。   As described above, the mobile electronic communication device 10 calculates the range of the relevance ratio of the item objects to be extracted based on the positional relationship between the group object and the key object, and extracts the item objects that satisfy the range of the relevance ratio. By doing so, the operator can visually recognize the state of the search result. Thereby, it is possible to easily obtain a search result desired by the operator. In addition, since the degree of precision can be easily adjusted by the operation of the operator, the operability of the operator can be improved.

また、抽出した項目オブジェクトをキーオブジェクトに吸着させて表示することで、抽出された項目オブジェクトの数を認識することが可能となり、この点でも操作性を高くすることができる。なお、本実施形態では、項目オブジェクトをキーオブジェクトに吸着させて表示することで、抽出されたことを示したが、本発明はこれに限定されない。キーオブジェクトの検索により項目オブジェクトが抽出されたことを視覚的に認識できればよく、抽出した項目オブジェクトの数を表示させるようにしてもよい。   Also, by displaying the extracted item objects while adsorbing them to the key object, it is possible to recognize the number of extracted item objects, and in this respect, the operability can be improved. In the present embodiment, the item object is attracted to the key object and displayed to indicate that it has been extracted. However, the present invention is not limited to this. It is only necessary to visually recognize that the item object has been extracted by searching the key object, and the number of extracted item objects may be displayed.

また、グループオブジェクトは、所属している項目オブジェクトの数に比例して表示領域を設定することが好ましい。つまり、所属している項目オブジェクトの数が少ないグループオブジェクトは、より小さい領域で表示し、所属している項目オブジェクトの数が多いグループオブジェクトは、より大きい領域で表示するようにすることが好ましい。また、キーオブジェクトで吸着している項目オブジェクトの集合体の場合も同様に表示することが好ましい。これにより、項目オブジェクトの吸着状態を視覚で簡単に把握することができ、操作性を高くすることができる。   Moreover, it is preferable that the display area is set in proportion to the number of item objects to which the group object belongs. That is, it is preferable to display a group object with a small number of belonging item objects in a smaller area, and display a group object with a large number of belonging item objects in a larger area. Further, it is preferable to display the same in the case of a collection of item objects attracted by the key object. Thereby, the adsorption state of the item object can be easily grasped visually, and the operability can be improved.

また、グループオブジェクト及び/または項目オブジェクトの集合体は、その表示領域の外周(輪郭線)に線を表示することが好ましい。このように、表示領域の外周を線で明示することで、表示領域の大きさを的確に把握することができ、操作者によるタッチ操作も適切に行うことが可能となる。   Moreover, it is preferable that the group object and / or the collection of item objects display a line on the outer periphery (contour line) of the display area. Thus, by clearly indicating the outer periphery of the display area with a line, the size of the display area can be accurately grasped, and the touch operation by the operator can be appropriately performed.

ここで、上記実施形態では、各項目オブジェクトの適合率を算出した後、適合率の範囲を算出したが、適合率の算出と、適合率の範囲の算出の処理の順番は、どちらでもよい。なお、計算量を少なくすることができるため、項目オブジェクトの適合率は、一度算出したら、破棄するまで、流用するようにすることが好ましい。また、本実施形態では、検索部で各項目オブジェクトの適合率を算出するようにしたが、本発明はこれに限定されない。各項目オブジェクトの適合率を求めることができればよく、ネットワーク等を介して外部の装置から供給された適合率の情報を用いるようにしてもよい。   Here, in the above embodiment, the precision ratio range is calculated after calculating the precision ratio of each item object. However, the order of processing of the precision ratio calculation and the precision ratio range calculation may be either. Since the calculation amount can be reduced, it is preferable that the relevance ratio of the item object is used once it is calculated until it is discarded. In the present embodiment, the relevance ratio of each item object is calculated by the search unit, but the present invention is not limited to this. It suffices to determine the relevance ratio of each item object, and information on the relevance ratio supplied from an external device via a network or the like may be used.

また、上記実施形態では、画像ファイルを例として説明したが、上述したように、音楽ファイルの検索、ホームページの検索等にも用いることができる。さらに、通信先(連絡を取る相手先)の検索に用いるようにしてもよい。この場合は、グループオブジェクトが、いわゆるアドレス帳となり、項目オブジェクトが、個別アドレス(通信先特定オブジェクト)となる。また、この場合キーオブジェクトは、「アドレスの名前が、あ行」、電話番号の一部、メールアドレスの一部、アドレスのグループ等が例示される。なお、個別アドレスには、氏名や、電話番号、メールアドレス、住所等の情報が記憶されている。また、アドレス帳で検索した結果で抽出した個別アドレスに対して電話をかけるモードに移行するようにしてもよく、また、抽出した個別アドレスに対して送信するメールを作成するメール作成画面に移行するようにしてもよい。この場合は、抽出した個別アドレスの中から操作者の入力デバイスへの操作により選択された少なくとも1つの個別アドレスに記憶された情報に基づいて、特定された通信先に通信部で通信を行うことで、メールを送信したり、電話をかけたりする。   In the above-described embodiment, the image file has been described as an example. However, as described above, the image file can be used for searching a music file, a home page, and the like. Further, it may be used for searching for a communication destination (a partner to be contacted). In this case, the group object is a so-called address book, and the item object is an individual address (communication destination specifying object). In this case, examples of the key object include “address name is A line”, a part of a telephone number, a part of a mail address, a group of addresses, and the like. The individual address stores information such as name, telephone number, mail address, and address. In addition, it may be possible to shift to a mode for making a call to an individual address extracted as a result of searching in the address book, or to a mail creation screen for creating a mail to be transmitted to the extracted individual address. You may do it. In this case, the communication unit communicates with the specified communication destination based on the information stored in at least one individual address selected by the operator's operation on the input device from the extracted individual addresses. Then send an email or make a call.

例えば、項目オブジェクトがアドレス帳データ内の電話番号を表す画像であった場合、ユーザーにより複数の項目オブジェクトから1つが選択されると、CPU22は、選択された項目オブジェクトに対応する電話番号との通話を要求する処理を実行する。また、項目オブジェクトがアドレス帳データ内のメールアドレスを表す画像であった場合、ユーザーにより複数の項目オブジェクトから1つが選択されると、CPU22は、選択された項目オブジェクトに対応するメールアドレスへ送信するメールを作成するための画面を表示デバイスに表示する。また、項目オブジェクトがWEBページのアドレス(URL:Uniform Resource Locator)を表す画像であった場合、ユーザーにより複数の項目オブジェクト14から1つが選択されると、CPU22は、選択された項目オブジェクトに対応するURLへの接続(リンク先のファイルのダウンロードし、ファイルに対応したアプリケーションプログラムを実行)する。   For example, when the item object is an image representing a telephone number in the address book data, when one is selected from a plurality of item objects by the user, the CPU 22 makes a call with the telephone number corresponding to the selected item object. Execute the process that requests When the item object is an image representing a mail address in the address book data, when one is selected from a plurality of item objects by the user, the CPU 22 transmits to the mail address corresponding to the selected item object. Display the screen for composing mail on the display device. When the item object is an image representing an address (URL: Uniform Resource Locator) of the WEB page, when one is selected from the plurality of item objects 14 by the user, the CPU 22 corresponds to the selected item object. Connect to the URL (download the linked file and execute the application program corresponding to the file).

また、上記実施形態では、適合率をキーワードや条件との一致度に基づいて算出したが、本発明はこれに加え、閲覧回数や、人気度等のパラメータも加味して適合率を算出するようにしてもよい。   In the above embodiment, the relevance ratio is calculated based on the degree of coincidence with the keyword and the condition. However, in addition to this, the present invention calculates the relevance ratio in consideration of parameters such as the number of times of browsing and popularity. It may be.

また、上記実施形態では、好適な態様として、タッチパネルを備えた携帯電話機を例として説明したが、これに限定されない。上述したように、各種通信機器に用いることができる。また通信部としては、基地局を介して公衆通信網と接続する通信部や、他の端末と直接通信する通信部が例示される。また、接続先は、サーバや、他の端末等が例示される。   Moreover, although the said embodiment demonstrated as an example the mobile telephone provided with the touch panel as a suitable aspect, it is not limited to this. As described above, it can be used for various communication devices. Examples of the communication unit include a communication unit that connects to a public communication network via a base station, and a communication unit that directly communicates with other terminals. Examples of the connection destination include a server and other terminals.

また、上記実施形態では、表示デバイスとして液晶表示装置を用い、入力デバイスとしてタッチパネルを用いたが、これにも限定されない。例えば、表示デバイスとしてプロジェクタ等の投影表示手段を用い、入力デバイスとして、投影された画像の表示領域に入力される接触を検出する接触検出手段を用いてもよい。具体的には、操作者が表示領域に手をいれ、その手をオブジェクトが表示された領域に持っていき、その状態から表示領域内で手を動かす。このような手の動作を接触検出手段で検出することで、同様の制御を行うことができる。   Moreover, in the said embodiment, although the liquid crystal display device was used as a display device and the touch panel was used as an input device, it is not limited to this. For example, a projection display unit such as a projector may be used as the display device, and a contact detection unit that detects a contact input to the display area of the projected image may be used as the input device. Specifically, the operator places a hand in the display area, brings the hand to the area where the object is displayed, and moves the hand in the display area from that state. The same control can be performed by detecting such movement of the hand by the contact detection means.

ところで、絞り込み検索において、(1)抽出された項目オブジェクトを対象グループオブジェクト(以下、「抽出前グループオブジェクト」ともいう場合がある。)に含ませたくない(抽出された項目オブジェクトを抽出前グループオブジェクトから除きたい)場合と、(2)抽出された項目オブジェクトを抽出前グループオブジェクトに含ませたい(抽出された項目オブジェクトを抽出前グループオブジェクトから除きたくない)場合とが考えられる。   By the way, in the refined search, (1) it is not desired to include the extracted item object in the target group object (hereinafter also referred to as “group object before extraction”) (the extracted item object is the group object before extraction). And (2) a case in which the extracted item object is desired to be included in the group object before extraction (the extracted item object is not desired to be excluded from the group object before extraction).

上記(1)の例として、例えば、図6−1〜図6−5、並びに、図8−1〜図8−3及び図10−1〜図10−2を参照すると、抽出された項目オブジェクトが、抽出前グループオブジェクトから除かれている。これは、例えば、抽出前グループオブジェクトに対して複数の絞り込み検索を順次実施し、抽出前グループオブジェクトに含まれる項目オブジェクトを徐々に減らして行って、抽出前グループオブジェクトに最後まで残った項目オブジェクトの中から所望の項目オブジェクトを見つけ出したい場合等に好適である。   As an example of the above (1), for example, referring to FIGS. 6-1 to 6-5, FIGS. 8-1 to 8-3, and FIGS. Are removed from the group object before extraction. For example, a plurality of refinement searches are sequentially performed on the group object before extraction, the item objects included in the group object before extraction are gradually reduced, and the item objects remaining to the end in the group object before extraction are detected. This is suitable for finding a desired item object from the inside.

一方、上記(2)は、例えば、抽出前グループオブジェクトに対して複数の絞り込み検索を別個独立に順次実施する場合等に好適である。   On the other hand, the above (2) is suitable, for example, when a plurality of narrowing searches are separately and sequentially performed on the group object before extraction.

そこで、本実施形態においては、操作者が上記(1)、(2)を直感的、視覚的な操作で使い分けることが出来るようにすることとした。   Therefore, in the present embodiment, the operator can use (1) and (2) properly by intuitive and visual operations.

図13は、携帯電子通信機器の処理動作の一例を示すフロー図である。図13のフロー図に示す処理は、図4、図5、図7−1、図7−2のフロー図に示す絞り込み検索処理の実行後に実行される。   FIG. 13 is a flowchart showing an example of the processing operation of the portable electronic communication device. The process shown in the flowchart of FIG. 13 is executed after execution of the narrowing search process shown in the flowcharts of FIGS. 4, 5, 7-1, and 7-2.

まず、検索部60は、ステップS130として、抽出前グループオブジェクト又は抽出された項目オブジェクトの集団であるグループオブジェクト(以下、「抽出後グループオブジェクト」ともいう場合がある。)のドラッグ操作の開始であるかを判定する。   First, in step S130, the search unit 60 starts a drag operation of a group object that is a group of pre-extraction group objects or extracted item objects (hereinafter also referred to as “post-extraction group object”). Determine whether.

検索部60は、ステップS130で抽出前グループオブジェクト又は抽出後グループオブジェクトのドラッグ操作の開始である(Yes)と判定したら、ステップS132として、ドラッグ操作の対象が抽出後グループオブジェクトであるかを判定する。なお、検索部60は、各オブジェクトを現状の位置に表示させる。   If it is determined in step S130 that the drag operation of the pre-extraction group object or the post-extraction group object is started (Yes), the search unit 60 determines in step S132 whether the target of the drag operation is the post-extraction group object. . The search unit 60 displays each object at the current position.

検索部60は、ステップS132でドラッグ操作の対象が抽出後グループオブジェクトである(Yes)と判定したら、ステップS134として、ドラッグ操作対象を抽出後グループオブジェクトに設定し、その後、ステップS156として、グループオブジェクトの描画を更新し、処理をステップS130に戻す。なお、グループオブジェクトの描画の更新では、検索部60は、抽出後グループオブジェクトをドラッグされた位置に描画すること等を行う。   When it is determined in step S132 that the target of the drag operation is the post-extraction group object (Yes), the search unit 60 sets the drag operation target as the post-extraction group object in step S134, and then in step S156, the group object The drawing is updated, and the process returns to step S130. In updating the drawing of the group object, the search unit 60 draws the group object after extraction at the dragged position.

検索部60は、ステップS132でドラッグ操作の対象が抽出後グループオブジェクトではない(No)と判定したら、ステップS136として、ドラッグ操作対象を抽出前グループオブジェクトに設定し、その後、ステップS156として、グループオブジェクトの描画を更新し、処理をステップS130に戻す。なお、グループオブジェクトの描画の更新では、検索部60は、抽出前グループオブジェクトをドラッグされた位置に描画すること等を行う。   If it is determined in step S132 that the target of the drag operation is not the group object after extraction (No), the search unit 60 sets the target of the drag operation as the group object before extraction in step S136, and then, in step S156, the group object The drawing is updated, and the process returns to step S130. When updating the drawing of the group object, the search unit 60 draws the pre-extraction group object at the dragged position.

検索部60は、ステップS130で抽出前グループオブジェクト又は抽出後グループオブジェクトのドラッグ操作の開始ではない(No)と判定したら、ステップS138として、ドラッグ操作の途中であるかを判定する。   If it is determined in step S130 that the pre-extraction group object or post-extraction group object drag operation has not started (No), the search unit 60 determines in step S138 whether the drag operation is in progress.

検索部60は、ステップS138でドラッグ操作の途中である(Yes)と判定したら、ステップS140として、ドラッグ操作の対象が抽出後グループオブジェクトであるかを判定する。   If it is determined in step S138 that the drag operation is in progress (Yes), the search unit 60 determines in step S140 whether the target of the drag operation is an extracted group object.

検索部60は、ステップS140でドラッグ操作の対象が抽出後グループオブジェクトではない(No)と判定したら、ステップS156として、グループオブジェクトの描画を更新し、処理をステップS130に戻す。   If it is determined in step S140 that the target of the drag operation is not the group object after extraction (No), the search unit 60 updates the drawing of the group object in step S156 and returns the process to step S130.

検索部60は、ステップS140でドラッグ操作の対象が抽出後グループオブジェクトである(Yes)と判定したら、ステップS142として、抽出後グループオブジェクトのドラッグ移動先が抽出前グループオブジェクトの表示領域内部であるかを判定する。なお、抽出後グループオブジェクトのドラッグ移動先が抽出前グループオブジェクトの表示領域内部であるか否かの判定基準として、例えば、操作者がタッチしている座標が抽出前グループオブジェクトの表示領域内部であるか否か、抽出後グループオブジェクトの表示領域と抽出前グループオブジェクトの表示領域とが重なっているか否か等を用いることができる。   If the search unit 60 determines in step S140 that the target of the drag operation is the post-extraction group object (Yes), in step S142, the search unit 60 determines whether the post-extraction group object is within the display area of the pre-extraction group object. Determine. In addition, as a criterion for determining whether the drag destination of the group object after extraction is within the display area of the group object before extraction, for example, the coordinates touched by the operator are inside the display area of the group object before extraction Whether or not the display area of the group object after extraction overlaps with the display area of the group object before extraction can be used.

検索部60は、ステップS142で抽出後グループオブジェクトのドラッグ移動先が抽出前グループオブジェクトの表示領域内部ではない(No)と判定したら、ステップS156として、グループオブジェクトの描画を更新し、処理をステップS130に戻す。   If it is determined in step S142 that the drag destination of the group object after extraction is not inside the display area of the group object before extraction (No), the search unit 60 updates the drawing of the group object in step S156, and the process proceeds to step S130. Return to.

検索部60は、ステップS142で抽出後グループオブジェクトのドラッグ移動先が抽出前グループオブジェクトの表示領域内部である(Yes)と判定したら、ステップS144として、抽出前グループオブジェクト内に抽出後グループオブジェクト内の項目オブジェクトを複製(コピーを生成)し、その後、ステップS156として、グループオブジェクトの描画を更新し、処理をステップS130に戻す。なお、ステップS130〜ステップS156がループを構成しており、既に抽出前グループオブジェクト内に抽出後グループオブジェクト内の項目オブジェクトが複製されている場合には、検索部60は、再度の複製は行わない。   If the search unit 60 determines in step S142 that the drag destination of the group object after extraction is within the display area of the group object before extraction (Yes), in step S144, the search unit 60 includes the group object in the post-extraction group object. The item object is duplicated (a copy is generated), and then the drawing of the group object is updated as step S156, and the process returns to step S130. Note that if step S130 to step S156 form a loop and the item object in the group object after extraction is already duplicated in the group object before extraction, the search unit 60 does not duplicate again. .

検索部60は、ステップS138で抽出前グループオブジェクト又は抽出後グループオブジェクトのドラッグ操作の途中ではない(No)と判定したら、ステップS146として、ドラッグ操作の完了であるかを判定する。   If it is determined in step S138 that the pre-extraction group object or post-extraction group object is not in the middle of a drag operation (No), the search unit 60 determines in step S146 whether the drag operation is complete.

検索部60は、ステップS146でドラッグ操作の完了ではない(No)と判定したら、ステップS148として、ドラッグ操作の対象が抽出後グループオブジェクトであるかを判定する。   If it is determined in step S146 that the drag operation is not completed (No), the search unit 60 determines in step S148 whether the target of the drag operation is an extracted group object.

検索部60は、ステップS148でドラッグ操作の対象が抽出後グループオブジェクトではない(No)と判定したら、ステップS156として、グループオブジェクトの描画を更新し、処理をステップS130に戻す。   If it is determined in step S148 that the target of the drag operation is not the group object after extraction (No), the search unit 60 updates the drawing of the group object in step S156 and returns the process to step S130.

検索部60は、ステップS148でドラッグ操作の対象が抽出後グループオブジェクトである(Yes)と判定したら、ステップS150として、抽出後グループオブジェクトのドラッグ移動先が抽出前グループオブジェクトの表示領域内部であるかを判定する。   If the search unit 60 determines in step S148 that the target of the drag operation is the post-extraction group object (Yes), in step S150, whether the post-extraction group object is moved within the display area of the pre-extraction group object. Determine.

検索部60は、ステップS150で抽出後グループオブジェクトのドラッグ移動先が抽出前グループオブジェクトの表示領域内部である(Yes)と判定したら、ステップS152として、抽出後グループオブジェクトと抽出前グループオブジェクトとを合成する。これにより、抽出前グループオブジェクトは、絞り込み検索前の状態(元通り)になる。なお、抽出前グループオブジェクト内に抽出後グループオブジェクト内の項目オブジェクトが複製されている場合には、検索部60は、複製された項目オブジェクトを取り除く(削除する)。検索部60は、その後、ステップS156として、グループオブジェクトの描画を更新し、処理をステップS130に戻す。   If the search unit 60 determines in step S150 that the drag destination of the group object after extraction is within the display area of the group object before extraction (Yes), the group object after extraction and the group object before extraction are combined in step S152. To do. As a result, the pre-extraction group object is in the state before the refinement search (original). When the item object in the group object after extraction is duplicated in the group object before extraction, the search unit 60 removes (deletes) the duplicated item object. Thereafter, the search unit 60 updates the drawing of the group object as step S156, and returns the process to step S130.

検索部60は、ステップS150で抽出後グループオブジェクトのドラッグ移動先が抽出前グループオブジェクトの表示領域内部ではない(No)と判定したら、ステップS154として、抽出後グループオブジェクトを新たな抽出前グループオブジェクトとして生成(確定)し、その後、ステップS156として、グループオブジェクトの描画を更新し、処理をステップS130に戻す。   When it is determined in step S150 that the drag destination of the group object after extraction is not within the display area of the group object before extraction (No), the search unit 60 sets the group object after extraction as a new group object before extraction in step S154. Then, in step S156, the drawing of the group object is updated, and the process returns to step S130.

検索部60は、ステップS146でドラッグ操作の完了である(Yes)と判定したら、ステップS156として、グループオブジェクトの描画を更新し、処理をステップS130に戻す。   If it is determined in step S146 that the drag operation is completed (Yes), the search unit 60 updates the drawing of the group object in step S156, and returns the process to step S130.

次に、図14−1から図14−6を用いて、具体的な操作例の一例を説明する。ここで、図14−1から図14−6は、オブジェクト吸着Aモードによって抽出された抽出後グループオブジェクトに対する操作が行われた場合の携帯電子通信機器の動作を説明するための説明図である。なお、図14−1から図14−6は、画面表示の一例を示している。また、図14−1から図14−6に示す説明図では、1つの抽出前グループオブジェクトと、1つの抽出後グループオブジェクトのみを示し、他のグループオブジェクト及びそれに含まれる項目オブジェクトとキーオブジェクトの図示は省略している。また、抽出前グループオブジェクトに含まれている項目オブジェクトの集合を「A」で示している。   Next, an example of a specific operation example will be described with reference to FIGS. 14-1 to 14-6. Here, FIGS. 14-1 to 14-6 are explanatory diagrams for explaining the operation of the portable electronic communication device when an operation is performed on the group object after extraction extracted in the object adsorption A mode. FIGS. 14-1 to 14-6 show examples of screen display. Also, in the explanatory diagrams shown in FIGS. 14-1 to 14-6, only one group object before extraction and one group object after extraction are shown, and other group objects, item objects included therein, and key objects are illustrated. Is omitted. A set of item objects included in the pre-extraction group object is indicated by “A”.

まず、図14−1に示すように、キーオブジェクト106aが操作者によりタッチされると、検索部60は、キーオブジェクト106aが選択されたと判定して、オブジェクト吸着Aモードに移行する。   First, as illustrated in FIG. 14A, when the key object 106a is touched by the operator, the search unit 60 determines that the key object 106a has been selected, and shifts to the object adsorption A mode.

次に、操作者によりキーオブジェクト106aが移動され、図14−2に示すように、キーオブジェクト106aとグループオブジェクト102aとの距離が一定距離以内となると、グループオブジェクト102aが吸着モードとなり、グループオブジェクト102aに含まれる各項目オブジェクトの、キーオブジェクト106aの検索条件に対する適合率を算出する。   Next, when the key object 106a is moved by the operator and the distance between the key object 106a and the group object 102a is within a certain distance as shown in FIG. 14B, the group object 102a enters the suction mode, and the group object 102a. The relevance ratio of each item object included in the key object 106a with respect to the search condition is calculated.

検索部60は、各項目オブジェクトの適合率を算出したら、キーオブジェクト106aとグループオブジェクト102aとの距離に基づいて、吸着させる項目オブジェクトの適合率の範囲を算出し、グループオブジェクト102aの項目オブジェクトの中から、その適合率の範囲に含まれる適合率の項目オブジェクトを抽出し、図14−2に示すように、抽出した項目オブジェクトの集合(ここでは、「C」で示している。)を、キーオブジェクト106a側に移動させて、キーオブジェクト106aに吸着された状態とする。   After calculating the relevance rate of each item object, the search unit 60 calculates the range of relevance rates of the item objects to be attracted based on the distance between the key object 106a and the group object 102a, and among the item objects of the group object 102a. Then, the item objects of the relevance ratio included in the range of the relevance ratio are extracted, and as shown in FIG. 14-2, a set of the extracted item objects (in this case, indicated by “C”) is the key. The object is moved to the object 106a side so that it is attracted to the key object 106a.

次に、操作者が入力デバイス34から手を離し、入力デバイス34にタッチしていない状態としてドラッグ状態を解除すると、検索部60により抽出(吸着)される項目オブジェクトが確定される。つまり、抽出する項目オブジェクトの適合率の範囲が確定し、その適合率の範囲を満たす項目オブジェクトが抽出される。抽出された項目オブジェクトの集団は、新たなグループオブジェクト(抽出後グループオブジェクト)102bとなる。   Next, when the operator releases the input device 34 and releases the drag state in a state where the input device 34 is not touched, the item object to be extracted (sucked) by the search unit 60 is determined. That is, the range of the relevance ratio of the item object to be extracted is determined, and the item objects satisfying the range of the relevance ratio are extracted. The group of the extracted item objects becomes a new group object (extracted group object) 102b.

ここで、操作者が、図14−3に示すように、抽出後グループオブジェクト102bにタッチして、図14−4に示すように、抽出後グループオブジェクト102bを抽出前グループオブジェクト102aの表示領域内部にドラッグすると、抽出後グループオブジェクト102bに含まれている項目オブジェクトの集合「C」が抽出前グループオブジェクト102a内に複製(コピー)される。その後、操作者が、図14−5に示すように、抽出後グループオブジェクト102bを抽出前グループオブジェクト102aの表示領域外部にドラッグすると、抽出前グループオブジェクト102a内と抽出後グループオブジェクト102b内の両方に抽出された項目オブジェクトの集合「C」が含まれることとなる。   Here, the operator touches the post-extraction group object 102b as shown in FIG. 14-3, and the post-extraction group object 102b is displayed inside the display area of the pre-extraction group object 102a as shown in FIG. 14-4. The item object set “C” included in the post-extraction group object 102b is copied (copied) into the pre-extraction group object 102a. Thereafter, when the operator drags the post-extraction group object 102b to the outside of the display area of the pre-extraction group object 102a as shown in FIG. 14-5, both the inside of the pre-extraction group object 102a and the post-extraction group object 102b. A set “C” of the extracted item objects is included.

一方、図14−6において、操作者が、抽出後グループオブジェクト102bにタッチして、抽出後グループオブジェクト102bを抽出前グループオブジェクト102aの表示領域内部にドラッグすることなく抽出前グループオブジェクト102aの表示領域から遠ざかる方向にドラッグすると、抽出後グループオブジェクト102bに含まれている項目オブジェクトの集合「C」は抽出前グループオブジェクト102a内に複製(コピー)されない。つまり、抽出前グループオブジェクト102a内には、項目オブジェクトの集合「A−C」が含まれることとなる。   On the other hand, in FIG. 14-6, the operator touches the group object 102b after extraction and does not drag the group object 102b after extraction into the display area of the group object 102a before extraction. When dragging in a direction away from the group object 102b, the item object set “C” included in the post-extraction group object 102b is not copied (copied) into the pre-extraction group object 102a. That is, the set of item objects “AC” is included in the pre-extraction group object 102a.

なお、ここでは、オブジェクト吸着Aモードによって抽出された抽出後グループオブジェクトに対する操作が行われた場合について説明したが、オブジェクト吸着Bモードによって抽出された抽出後グループオブジェクトに対しても同様に適用可能である。   Here, the case where an operation is performed on the group object after extraction extracted in the object adsorption A mode has been described, but the present invention can be similarly applied to the group object after extraction extracted in the object adsorption B mode. is there.

携帯電子通信機器10は、このように、抽出後グループオブジェクトが移動された方向に基づいて、抽出された項目オブジェクトを抽出前グループオブジェクトに含ませるか否かを決定することで、操作者が、直感的、視覚的に抽出された項目オブジェクトを抽出前グループオブジェクトに含ませるか否かの操作を行うことが可能となる。これにより、抽出前グループオブジェクトに対して絞り込み検索を実行した後の抽出前グループオブジェクトに関する取り扱いの操作性をも高くすることができ、操作者の所望の検索結果を簡単に得ることが可能となる。例えば、抽出前グループオブジェクトに対して複数の絞り込み検索を別個独立に順次実施する場合の操作性を高くすることができる。   In this way, the mobile electronic communication device 10 determines whether or not to include the extracted item object in the group object before extraction based on the direction in which the group object after extraction is moved. It is possible to perform an operation as to whether or not to include the item object extracted intuitively and visually in the group object before extraction. As a result, the operability of handling the pre-extraction group object after performing the refinement search on the pre-extraction group object can be enhanced, and the operator's desired search result can be easily obtained. . For example, it is possible to improve the operability in the case where a plurality of narrowing searches are separately and sequentially performed on the pre-extraction group object.

なお、本実施形態では、抽出後グループオブジェクトが抽出前グループオブジェクトの表示領域内に移動された後に抽出前グループオブジェクトの表示領域外に移動されたことを検出したら、抽出された項目オブジェクトが複製(コピー)されることとした例を示したが、本発明はこれに限定されない。例えば、抽出された項目オブジェクトを複製(コピー)することなく、抽出された項目オブジェクトを抽出後グループオブジェクト及び抽出前グループオブジェクトの両方から参照可能とすることで、抽出された項目オブジェクトを抽出後グループオブジェクト内及び抽出前グループオブジェクト内の両方に含ませる(表示させる)ようにすることとしても良い。   In this embodiment, when it is detected that the group object after extraction is moved outside the display area of the group object before extraction after being moved into the display area of the group object before extraction, the extracted item object is copied ( Although an example of copying) is shown, the present invention is not limited to this. For example, the extracted item object can be referred to from both the group object after extraction and the group object before extraction without duplicating (copying) the extracted item object. It may be included (displayed) in both the object and the pre-extraction group object.

また、本実施形態では、抽出後グループオブジェクトの全体が抽出前グループオブジェクトの表示領域内に移動された後に抽出前グループオブジェクトの表示領域外に移動されたことを検出したら、抽出された項目オブジェクトを抽出後グループオブジェクト内及び抽出前グループオブジェクト内の両方に含ませる(表示させる)こととした例を示したが、本発明はこれに限定されない。例えば、抽出後グループオブジェクトの一部が抽出前グループオブジェクトの表示領域内に移動された後に抽出前グループオブジェクトの表示領域外に移動されたことを検出したら、抽出された項目オブジェクトを抽出後グループオブジェクト内及び抽出前グループオブジェクト内の両方に含ませる(表示させる)こととしても良い。   Further, in this embodiment, when it is detected that the entire group object after extraction is moved within the display area of the group object before extraction and then moved outside the display area of the group object before extraction, the extracted item object is Although an example has been shown in which it is included (displayed) in both the group object after extraction and the group object before extraction, the present invention is not limited to this. For example, if it is detected that a part of the group object after extraction is moved outside the display area of the group object before extraction after being moved into the display area of the group object before extraction, the extracted item object is extracted to the group object after extraction. It may be included (displayed) in both the inside and the group object before extraction.

なお、本実施形態の携帯電子通信機器10は、WEBページを表示できるWEBブラウザを搭載し、当該WEBブラウザでWEBページの検索結果に対応する画像を表示デバイスに表示する携帯電子機器にも適用できる。この場合、項目オブジェクトは、URLを表す画像である。また、グループオブジェクトは、検索によって抽出されたURL群を囲う画像である。携帯電子機器1は、これらの画像を表示デバイスに表示し、1つの項目オブジェクトが表示されている領域に接触されて選択されると、選択された項目オブジェクトに対応するURLにより指定されるWEBページを通信部により取得して表示デバイスに表示する。   Note that the mobile electronic communication device 10 of the present embodiment is also applicable to a mobile electronic device that is equipped with a WEB browser that can display a WEB page and displays an image corresponding to the search result of the WEB page on the display device. . In this case, the item object is an image representing a URL. The group object is an image surrounding the URL group extracted by the search. When the portable electronic device 1 displays these images on a display device and is selected by touching an area where one item object is displayed, the WEB page specified by the URL corresponding to the selected item object Is acquired by the communication unit and displayed on the display device.

以上のように、本発明にかかる通信機器及び携帯電子機器は、複数のオブジェクトの中から検索条件に適合するオブジェクトを抽出するのに有用である。   As described above, the communication device and the portable electronic device according to the present invention are useful for extracting an object that meets a search condition from a plurality of objects.

10 携帯電子通信機器
22 CPU
26 通信部
30 音声処理部
32 表示デバイス
34 入力デバイス
36 ROM
38 RAM
40 内部ストレージ
42 外部ストレージインターフェース
46 外部ストレージ
50 マイク
52 レシーバ
60 検索部
62 表示部
64 入力部
66 コンテンツ制御部
68 検索制御部
70 オブジェクト制御部
72 オブジェクト表示部
74 オブジェクト操作部
76 オブジェクト管理部
78 オブジェクト情報データベース
80 コンテンツ管理部
82 検索インデックスデータベース
84 コンテンツ情報データベース
86 コンテンツアクセス部
88 表示制御部
90 描画エンジン部
92 入力インターフェース制御部
94 ファイルシステム
102 グループオブジェクト
104 項目オブジェクト
106 キーオブジェクト
10 Mobile electronic communication device 22 CPU
26 Communication Unit 30 Audio Processing Unit 32 Display Device 34 Input Device 36 ROM
38 RAM
40 Internal storage 42 External storage interface 46 External storage 50 Microphone 52 Receiver 60 Search unit 62 Display unit 64 Input unit 66 Content control unit 68 Search control unit 70 Object control unit 72 Object display unit 74 Object operation unit 76 Object management unit 78 Object information Database 80 Content management unit 82 Search index database 84 Content information database 86 Content access unit 88 Display control unit 90 Drawing engine unit 92 Input interface control unit 94 File system 102 Group object 104 Item object 106 Key object

Claims (12)

画像を表示させる表示部と、
前記表示部により画像が表示された領域に接触することで入力される入力指示を検出する入力検出部と、
他の端末と通信を行う通信部と、
前記入力検出部で検出した入力指示に基づいて制御を行い、かつ、前記表示部に表示させる画像の制御を行う制御部と、を有し、
前記制御部は、前記通信部での通信を行う際のアドレス情報がそれぞれ対応付けられた複数の通信先特定オブジェクトを有する抽出前グループオブジェクトを前記表示部により画面に表示させている状態で、前記抽出前グループオブジェクトを絞り込む所定の指示入力を前記入力検出部が検出したら、
前記指示入力における絞り込み条件に適合する通信先特定オブジェクトの集合を抽出するとともに抽出後グループオブジェクトとして前記表示部の画面に表示させ、
前記抽出後グループオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、
前記入力検出部により前記抽出後グループオブジェクトが移動された方向を検出し、
前記抽出後グループオブジェクトが移動された方向に基づいて、抽出された通信先特定オブジェクトを前記抽出前グループオブジェクトに含ませておくか否かを決定する制御を行い、
前記抽出後グループオブジェクト内の通信先特定オブジェクトの1つが選択され、決定される指示が入力されたことを前記入力検出部が検出したら、選択された通信先特定オブジェクトの対応付けられたアドレス情報に基づいて前記通信部での通信を開始させることを特徴とする通信機器。
A display for displaying an image;
An input detection unit that detects an input instruction input by touching a region where an image is displayed by the display unit;
A communication unit that communicates with other terminals;
A control unit that performs control based on an input instruction detected by the input detection unit, and that controls an image to be displayed on the display unit,
The control unit is configured to display the group object before extraction having a plurality of communication destination identification objects associated with address information when performing communication in the communication unit on the screen by the display unit, When the input detection unit detects a predetermined instruction input for narrowing down the pre-extraction group object,
Extracting a set of communication destination specific objects that match the narrowing-down conditions in the instruction input and displaying them on the screen of the display unit as a group object after extraction,
When the input detection unit detects a contact with the group object after extraction and a movement instruction in the contact state,
A direction in which the group object after extraction is moved by the input detection unit;
Based on the direction in which the group object after extraction is moved, control is performed to determine whether or not to include the extracted communication destination specific object in the group object before extraction,
When the input detecting unit detects that one of the communication destination specific objects in the group object after extraction is selected and an instruction to be determined is input, the address information associated with the selected communication destination specific object is displayed. A communication device that starts communication in the communication unit based on the communication device.
前記制御部は、前記抽出前グループオブジェクトとともに、前記抽出前グループオブジェクトの中から前記通信先特定オブジェクトを絞り込む条件を抽象化したキーオブジェクトを前記表示部により画面に表示させている状態で、前記キーオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、
前記抽出前グループオブジェクト内の各通信先特定オブジェクトの前記キーオブジェクトに対する適合率を求め、
前記算出した適合率の範囲を満足する通信先特定オブジェクトを、前記抽出前グループオブジェクト内の通信先特定オブジェクトから抽出することを特徴とする請求項1に記載の通信機器。
The control unit, in addition to the group object before extraction, in a state where a key object that abstracts a condition for narrowing down the communication destination specific object from the group object before extraction is displayed on the screen by the display unit, When the input detection unit detects an object contact and a movement instruction in the contact state,
Obtaining a matching rate of each communication destination specific object in the pre-extraction group object with respect to the key object;
2. The communication apparatus according to claim 1, wherein a communication destination specifying object that satisfies the calculated range of relevance ratio is extracted from communication destination specifying objects in the pre-extraction group object.
画像を表示させる表示部と、
前記表示部により画像が表示された領域に接触することで入力される入力指示を検出する入力検出部と、
前記入力検出部で検出した入力指示に基づいて制御を行い、かつ、前記表示部に表示させる画像の制御を行う制御部と、を有し、
前記制御部は、複数の項目オブジェクトを有する抽出前グループオブジェクトを前記表示部により画面に表示させている状態で、前記抽出前グループオブジェクトを絞り込む所定の指示入力を前記入力検出部が検出したら、
前記指示入力における絞り込み条件に適合する項目オブジェクトの集合を抽出するとともに抽出後グループオブジェクトとして前記表示部の画面に表示させ、
前記抽出後グループオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、
前記入力検出部により前記抽出後グループオブジェクトが移動された方向を検出し、
前記抽出後グループオブジェクトが移動された方向に基づいて、抽出された項目オブジェクトを前記抽出前グループオブジェクトに含ませておくか否かを決定する制御を行うことを特徴とする携帯電子機器。
A display for displaying an image;
An input detection unit that detects an input instruction input by touching a region where an image is displayed by the display unit;
A control unit that performs control based on an input instruction detected by the input detection unit, and that controls an image to be displayed on the display unit,
When the input detection unit detects a predetermined instruction input for narrowing down the group object before extraction in a state where the display unit displays the group object before extraction having a plurality of item objects on the screen,
Extracting a set of item objects that match the filtering conditions in the instruction input and displaying them as a group object after extraction on the screen of the display unit,
When the input detection unit detects a contact with the group object after extraction and a movement instruction in the contact state,
A direction in which the group object after extraction is moved by the input detection unit;
A portable electronic device that performs control to determine whether or not an extracted item object is included in the pre-extraction group object based on a direction in which the post-extraction group object is moved.
前記制御部は、前記抽出前グループオブジェクトとともに、前記抽出前グループオブジェクトの中から前記項目オブジェクトを絞り込む条件を抽象化したキーオブジェクトを前記表示部により画面に表示させている状態で、前記キーオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、
前記抽出前グループオブジェクト内の各項目オブジェクトの前記キーオブジェクトに対する適合率を求め、
前記算出した適合率の範囲を満足する項目オブジェクトを、前記抽出前グループオブジェクト内の項目オブジェクトから抽出することを特徴とする請求項3に記載の携帯電子機器。
The control unit displays the key object abstracted from the group object before extraction and the condition for narrowing down the item object from the group object before extraction on the screen by the display unit. When the input detection unit detects a movement instruction in the contact and contact state,
Obtaining a matching rate of each item object in the pre-extraction group object with respect to the key object;
4. The portable electronic device according to claim 3, wherein an item object satisfying the calculated precision ratio range is extracted from item objects in the pre-extraction group object.
前記制御部は、前記入力検出部により前記抽出後グループオブジェクトが前記抽出前グループオブジェクトの表示領域内に移動された後に前記抽出前グループオブジェクトの表示領域外に移動されたことを検出したら、抽出された項目オブジェクトを前記抽出前グループオブジェクトと前記抽出後グループオブジェクトの両方に含ませておく制御を行うことを特徴とする請求項3または4に記載の携帯電子機器。   The control unit is extracted when the input detection unit detects that the group object after extraction is moved into the display area of the group object before extraction and is moved outside the display area of the group object before extraction. 5. The portable electronic device according to claim 3, wherein control is performed so that the item object is included in both the pre-extraction group object and the post-extraction group object. 前記制御部は、前記入力検出部により前記抽出後グループオブジェクトが前記抽出前グループオブジェクトの表示領域内に移動されることなく前記抽出前グループオブジェクトの表示領域から遠ざかる方向に移動されたことを検出したら、前記抽出された項目オブジェクトを前記抽出後グループオブジェクトにのみ含ませ、前記抽出前グループオブジェクトからは削除する制御を行うことを特徴とする請求項3または4に記載の携帯電子機器。   When the control unit detects that the group object after extraction is moved in a direction away from the display area of the group object before extraction without being moved into the display area of the group object before extraction by the input detection unit. 5. The portable electronic device according to claim 3, wherein control is performed so that the extracted item object is included only in the group object after extraction and is deleted from the group object before extraction. 前記制御部は、前記抽出後グループオブジェクトの抽出の際、前記入力検出部により前記キーオブジェクトが移動された量を検出し、
前記キーオブジェクトが移動された量に基づいて抽出する項目オブジェクトの前記適合率の範囲を算出することを特徴とする請求項3から6のいずれか1項に記載の携帯電子機器。
The control unit detects an amount of movement of the key object by the input detection unit when extracting the group object after extraction,
The portable electronic device according to any one of claims 3 to 6, wherein a range of the relevance ratio of the item object to be extracted is calculated based on an amount of movement of the key object.
前記制御部は、前記抽出前グループオブジェクトに含まれる項目オブジェクトを前記表示部に表示させ、前記抽出後グループオブジェクトとともに、前記表示部により前記キーオブジェクトの近傍に表示させることを特徴とする請求項3から6のいずれか1項に記載の携帯電子機器。   The said control part displays the item object contained in the said group object before extraction on the said display part, and displays it in the vicinity of the said key object with the said display part with the said group object after extraction. The portable electronic device according to any one of 1 to 6. 前記制御部は、前記抽出後グループオブジェクトの抽出の際、前記キーオブジェクトと前記抽出前グループオブジェクトとの距離に応じて算出する適合率の範囲を変動させ、
前記距離が近いほど前記適合率の低い項目オブジェクトも含めて抽出し、前記距離が遠いほど前記適合率の高い項目オブジェクトだけを抽出することを特徴とする請求項3から8のいずれか1項に記載の携帯電子機器。
The control unit, when extracting the post-extraction group object, varies the range of the precision to be calculated according to the distance between the key object and the pre-extraction group object,
The item object according to any one of claims 3 to 8, wherein the item objects having a low matching rate are extracted as the distance is shorter, and only the item objects having a higher matching rate are extracted as the distance is longer. The portable electronic device described.
前記制御部は、前記グループオブジェクトに含まれる前記項目オブジェクトの数が多いほど当該グループオブジェクトを前記表示部に大きく表示させ、前記グループオブジェクトに含まれる前記項目オブジェクトの数が少ないほど、当該グループオブジェクトを前記表示部に小さく表示することを特徴とする請求項3から9のいずれか1項に記載の携帯電子機器。   The control unit displays the group object larger on the display unit as the number of the item objects included in the group object is larger, and displays the group object as the number of the item objects included in the group object is smaller. The portable electronic device according to claim 3, wherein the portable electronic device displays a small size on the display unit. 前記制御部は、前記グループオブジェクトの外周に輪郭線を付けて前記表示部に表示させることを特徴とする請求項3から10のいずれか1項に記載の携帯電子機器。   11. The portable electronic device according to claim 3, wherein the control unit displays an outline on the outer periphery of the group object on the display unit. 前記入力検出部は、前記表示部の前面に配置された接触センサであり、前記表示部に対する接触を入力として検出し、
前記制御部は、接触が生じた位置と前記表示部に表示させているそれぞれのオブジェクトの画像とを対応付けて、操作されたオブジェクトを判定することを特徴とする請求項3から11のいずれか1項に記載の携帯電子機器。
The input detection unit is a contact sensor disposed on the front surface of the display unit, detects a contact with the display unit as an input,
12. The control unit according to claim 3, wherein the control unit determines an operated object by associating a position where contact has occurred with an image of each object displayed on the display unit. Item 1. A portable electronic device according to item 1.
JP2009177078A 2009-06-26 2009-07-29 Communication equipment and portable electronic equipment Expired - Fee Related JP5254147B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009177078A JP5254147B2 (en) 2009-07-29 2009-07-29 Communication equipment and portable electronic equipment
PCT/JP2010/060902 WO2010150893A1 (en) 2009-06-26 2010-06-25 Communication device and electronic device
EP10792211.4A EP2447857A4 (en) 2009-06-26 2010-06-25 Communication device and electronic device
US13/380,691 US9626094B2 (en) 2009-06-26 2010-06-25 Communication device and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009177078A JP5254147B2 (en) 2009-07-29 2009-07-29 Communication equipment and portable electronic equipment

Publications (2)

Publication Number Publication Date
JP2011034149A true JP2011034149A (en) 2011-02-17
JP5254147B2 JP5254147B2 (en) 2013-08-07

Family

ID=43763192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009177078A Expired - Fee Related JP5254147B2 (en) 2009-06-26 2009-07-29 Communication equipment and portable electronic equipment

Country Status (1)

Country Link
JP (1) JP5254147B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012169135A1 (en) 2011-06-08 2012-12-13 Sony Corporation Information processing device, information processing method and computer program product
JP2012256172A (en) * 2011-06-08 2012-12-27 Sony Corp Information processing device, information processing method and program
GB2493249A (en) * 2011-06-30 2013-01-30 Boeing Co Context searching in images for target object
JP2016007046A (en) * 2011-04-15 2016-01-14 クラリオン株式会社 On-vehicle information system and on-vehicle device
KR101839319B1 (en) * 2011-07-05 2018-03-19 엘지전자 주식회사 Contents searching method and display apparatus thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233626A (en) * 2002-02-06 2003-08-22 Just Syst Corp Association presence/absence display device, association presence/absence display method and program for implementing the method on computer
JP2008097175A (en) * 2006-10-10 2008-04-24 Fuji Xerox Co Ltd Electronic file retrieving device
WO2009020103A1 (en) * 2007-08-03 2009-02-12 Loilo Inc Interface system for editing video data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233626A (en) * 2002-02-06 2003-08-22 Just Syst Corp Association presence/absence display device, association presence/absence display method and program for implementing the method on computer
JP2008097175A (en) * 2006-10-10 2008-04-24 Fuji Xerox Co Ltd Electronic file retrieving device
WO2009020103A1 (en) * 2007-08-03 2009-02-12 Loilo Inc Interface system for editing video data

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016007046A (en) * 2011-04-15 2016-01-14 クラリオン株式会社 On-vehicle information system and on-vehicle device
WO2012169135A1 (en) 2011-06-08 2012-12-13 Sony Corporation Information processing device, information processing method and computer program product
JP2012256172A (en) * 2011-06-08 2012-12-27 Sony Corp Information processing device, information processing method and program
CN103597432A (en) * 2011-06-08 2014-02-19 索尼公司 Information processing device, information processing method and computer program product
EP2718797A1 (en) * 2011-06-08 2014-04-16 Sony Corporation Information processing device, information processing method and computer program product
EP2718797A4 (en) * 2011-06-08 2015-02-18 Sony Corp Information processing device, information processing method and computer program product
GB2493249A (en) * 2011-06-30 2013-01-30 Boeing Co Context searching in images for target object
GB2493249B (en) * 2011-06-30 2015-06-24 Boeing Co Context-based target recognition
US9086484B2 (en) 2011-06-30 2015-07-21 The Boeing Company Context-based target recognition
KR101839319B1 (en) * 2011-07-05 2018-03-19 엘지전자 주식회사 Contents searching method and display apparatus thereof

Also Published As

Publication number Publication date
JP5254147B2 (en) 2013-08-07

Similar Documents

Publication Publication Date Title
WO2010150893A1 (en) Communication device and electronic device
RU2654145C2 (en) Information search method and device and computer readable recording medium thereof
KR101651577B1 (en) Management of local and remote media items
US8407613B2 (en) Directory management on a portable multifunction device
CN107491258A (en) For the equipment, method and graphic user interface in span mode lower-pilot window
CN107491257A (en) For accessing the apparatus and method of common equipment function
WO2012022070A1 (en) Method and mobile terminal for initiating application program
JP2018525950A (en) Intelligent device identification
JP2019075135A (en) Information processing device, information processing method, and program
US8868550B2 (en) Method and system for providing an answer
WO2017113131A1 (en) Method of managing multimedia files, electronic device, and graphical user interface
CN106385537A (en) Photographing method and terminal
CN106662630A (en) Location determination of using communicatively coupled electronic devices
WO2010081372A1 (en) Method for changing wallpaper and mobile terminal
JP5254147B2 (en) Communication equipment and portable electronic equipment
WO2015000430A1 (en) Intelligent word selection method and device
JP5254137B2 (en) Mobile communication device and communication device
CN111428522B (en) Translation corpus generation method, device, computer equipment and storage medium
JP4801701B2 (en) Mobile terminal and data control method
CN110263077A (en) Method, mobile terminal and the storage medium of file in a kind of acquisition mobile terminal
CN113836089A (en) Application program display method and device, electronic equipment and readable storage medium
JP2013218379A (en) Display device and program
US8896554B2 (en) Data retrieval apparatus and data retrieval method
JP5254148B2 (en) Communication equipment and portable electronic equipment
JP5254892B2 (en) Mobile communication device and communication device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130417

R150 Certificate of patent or registration of utility model

Ref document number: 5254147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees