JP2011034151A - Communication device and portable electronic device - Google Patents

Communication device and portable electronic device Download PDF

Info

Publication number
JP2011034151A
JP2011034151A JP2009177094A JP2009177094A JP2011034151A JP 2011034151 A JP2011034151 A JP 2011034151A JP 2009177094 A JP2009177094 A JP 2009177094A JP 2009177094 A JP2009177094 A JP 2009177094A JP 2011034151 A JP2011034151 A JP 2011034151A
Authority
JP
Japan
Prior art keywords
key
item
search
unit
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009177094A
Other languages
Japanese (ja)
Other versions
JP5254148B2 (en
Inventor
Yuya Ozaki
裕哉 尾▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2009177094A priority Critical patent/JP5254148B2/en
Priority to PCT/JP2010/060902 priority patent/WO2010150893A1/en
Priority to US13/380,691 priority patent/US9626094B2/en
Priority to EP10792211.4A priority patent/EP2447857A4/en
Publication of JP2011034151A publication Critical patent/JP2011034151A/en
Application granted granted Critical
Publication of JP5254148B2 publication Critical patent/JP5254148B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide communication device and portable electronic device that can perform refining search with high usability. <P>SOLUTION: The communication device and the portable electronic device have a display unit, an input detection unit, a communication unit and a control unit. The control unit determines a logical operation result for a key object abstracting conditions of refining item objects included in a key box object, capable of containing the plurality of key objects; determines a conformity ratio of each item object in a group object having the plurality of item objects to the logical operation result; and extracts the item objects satisfying the range of the calculated conformity ratios from the item objects in the group object for displaying on a screen, when the input detection unit detects the directions of moving the key box object, in contact or noncontact state, while the group object, the key object and the key box object are displayed on a screen by the display unit. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、表示部により画像が表示された領域への入力に基づいて、オブジェクトの選択を行う通信機器及び携帯電子機器に関する。   The present invention relates to a communication device and a portable electronic device that select an object based on an input to an area where an image is displayed by a display unit.

携帯電話機等の通信機器では、操作者の指示を入力する装置として、キーボードや、テンキー、ボタンを押下する入力装置以外の種々の入力装置がある。例えば、特許文献1には、加速度センサから得られる信号より、携帯端末の傾斜角度および「振る」、「傾ける」などのジェスチャーを入力として検出する携帯端末が記載されている。また、特許文献1に記載の装置では、携帯端末の傾斜角度から情報コンテンツを表すアイコン群の動きを制御し、ディスプレイに時々刻々移動するアイコンを表示することが記載されている。   In a communication device such as a cellular phone, there are various input devices other than an input device for pressing a keyboard, a numeric keypad, or a button as a device for inputting an operator's instruction. For example, Patent Document 1 describes a mobile terminal that detects, as an input, a tilt angle of a mobile terminal and a gesture such as “shake” or “tilt” from a signal obtained from an acceleration sensor. Further, the apparatus described in Patent Document 1 describes that an icon group representing information content is controlled from an inclination angle of a portable terminal, and an icon that moves from moment to moment is displayed on a display.

特開2002−149616号公報JP 2002-149616 A

また、入力装置としては、画像が表示されている領域に操作者が接触(タッチ)し、その接触を入力として検出するタッチパネルなどもある。タッチパネルは、操作者が画面を直接触りながら操作を行うことができるため、直感的な操作が可能で高い操作性を実現することができる。   Further, as an input device, there is a touch panel or the like in which an operator contacts (touches) an area where an image is displayed and detects the contact as an input. Since the operator can perform an operation while directly touching the screen, an intuitive operation is possible and high operability can be realized.

ここで、通信機器では、インターネットを介して情報を取得する場合や、1つのフォルダ内から一部のファイルを取り出す場合に、絞り込み検索を行うことがある。このような絞り込み検索は、キーとなる検索条件と各ファイルの情報とを照合し、検索条件を満たすファイルを抽出する。また、絞り込み検索により抽出されたファイルの表示方法としては、検索条件との適合率も判定し、抽出したファイルを適合率の高い順で表示する方法がある。このように、絞り込み検索の結果を適合率の高い順でリスト表示させることで、操作者が入力した検索条件により適合しているファイルから確認することができる。   Here, the communication device may perform a narrowing search when acquiring information via the Internet or when extracting a part of a file from one folder. In such a narrowing search, a search condition as a key is compared with information of each file, and a file satisfying the search condition is extracted. In addition, as a display method of the files extracted by the narrowing search, there is a method of determining the relevance rate with the search condition and displaying the extracted files in order of the relevance rate. In this way, by displaying the search results in a list in descending order of the relevance ratio, it is possible to confirm from the files that conform to the search conditions input by the operator.

しかしながら、この方法では、適合率を一定にすると絞り込み結果として抽出されるファイルの数がどの程度になるか検索結果が個数で表示されるまでわからない。また、抽出するファイルの個数を設定すると、検索条件によって、抽出される適合率の高さが変化してしまう。このため、種々の条件を設定しながら検索を繰り返すことになるため、操作性を高くすることが困難である。   However, in this method, it is not possible to know how many files are extracted as a narrowing result when the relevance ratio is constant until the search results are displayed in number. Further, when the number of files to be extracted is set, the high relevance ratio to be extracted changes depending on the search condition. For this reason, since the search is repeated while setting various conditions, it is difficult to improve operability.

また、複数の検索キーの論理演算結果を検索条件とする絞り込み検索を容易に行うことが困難である。   In addition, it is difficult to easily perform a narrow search using the logical operation results of a plurality of search keys as search conditions.

本発明は、上記に鑑みてなされたものであって、より高い操作性で絞り込み検索を実行することができる通信機器及び携帯電子機器を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a communication device and a portable electronic device that can execute a narrow search with higher operability.

上述した課題を解決し、目的を達成するために、本発明は、通信機器であって、画像を表示させる表示部と、前記表示部により画像が表示された領域に接触することで入力される入力指示を検出する入力検出部と、他の端末と通信を行う通信部と、前記入力検出部で検出した入力指示に基づいて制御を行い、かつ、前記表示部に表示させる画像の制御を行う制御部と、を有し、前記制御部は、前記通信部での通信を行う際のアドレス情報である複数の通信先特定オブジェクトを有するグループオブジェクトと、前記グループオブジェクトの中から前記通信先特定オブジェクトを絞り込む条件を抽象化したキーオブジェクトと、前記キーオブジェクトを複数含むことが可能なキーボックスオブジェクトとを前記表示部により画面に表示させている状態で、前記キーボックスオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、前記キーボックスオブジェクトに含まれるキーオブジェクトに対する論理演算結果を求め、前記グループオブジェクト内の各通信先特定オブジェクトの前記論理演算の結果に対する適合率を求め、前記算出した適合率の範囲を満足する通信先特定オブジェクトを、前記グループオブジェクト内の通信先特定オブジェクトから抽出して前記表示部の画面に表示させ、さらに、当該抽出された通信先特定オブジェクトの1つが選択され、決定される指示が入力されたことを前記入力検出部が検出したら、選択された通信先特定オブジェクトの対応付けられたアドレス情報に基づいて前記通信部での通信を開始させることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a communication device, which is input by contacting a display unit that displays an image and a region where the image is displayed by the display unit. An input detection unit that detects an input instruction, a communication unit that communicates with another terminal, a control based on the input instruction detected by the input detection unit, and a control of an image displayed on the display unit A control unit, and the control unit includes a group object having a plurality of communication destination specifying objects that are address information when communication is performed in the communication unit, and the communication destination specifying object among the group objects A key object that abstracts the conditions for narrowing down and a key box object that can include a plurality of the key objects are displayed on the screen by the display unit. When the input detection unit detects a contact with the key box object and a movement instruction in the contact state in the state, a logical operation result for the key object included in the key box object is obtained, and each communication destination in the group object is obtained. A matching rate of the specific object with respect to the result of the logical operation is obtained, and a communication destination specifying object that satisfies the range of the calculated matching rate is extracted from the communication destination specifying object in the group object and displayed on the screen of the display unit In addition, when the input detecting unit detects that one of the extracted communication destination specific objects is selected and an instruction to be determined is input, the address information associated with the selected communication destination specific object Based on the above, communication in the communication unit is started.

また、上述した課題を解決し、目的を達成するために、本発明は、携帯電子機器であって、画像を表示させる表示部と、前記表示部により画像が表示された領域に接触することで入力される入力指示を検出する入力検出部と、前記入力検出部で検出した入力指示に基づいて制御を行い、かつ、前記表示部に表示させる画像の制御を行う制御部と、を有し、前記制御部は、複数の項目オブジェクトを有するグループオブジェクトと、前記グループオブジェクトの中から前記項目オブジェクトを絞り込む条件を抽象化したキーオブジェクトと、前記キーオブジェクトを複数含むことが可能なキーボックスオブジェクトとを前記表示部により画面に表示させている状態で、前記キーボックスオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、前記キーボックスオブジェクトに含まれるキーオブジェクトに対する論理演算結果を求め、前記グループオブジェクト内の各項目オブジェクトの前記論理演算の結果に対する適合率を求め、前記算出した適合率の範囲を満足する項目オブジェクトを、前記グループオブジェクト内の項目オブジェクトから抽出して前記表示部の画面に表示させることを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a portable electronic device, in which a display unit that displays an image and a region where the image is displayed by the display unit are in contact with each other. An input detection unit that detects an input instruction to be input; and a control unit that performs control based on the input instruction detected by the input detection unit and controls an image to be displayed on the display unit; The control unit includes a group object having a plurality of item objects, a key object that abstracts a condition for narrowing down the item objects from the group object, and a key box object that can include a plurality of the key objects. In a state where the display unit displays on the screen, the input to the key box object and the movement instruction in the contact state are input. When the detection unit detects, the logical operation result for the key object included in the key box object is obtained, the relevance ratio for the result of the logical operation of each item object in the group object is obtained, and the range of the calculated relevance ratio is calculated. A satisfying item object is extracted from the item objects in the group object and displayed on the screen of the display unit.

ここで、前記制御部は、前記入力検出部により前記キーボックスオブジェクトに所定の第1の入力操作が行われたことを検出したら、前記キーボックスオブジェクトに含まれる複数のキーオブジェクトに対して実行する論理演算を現在(つまり、前記所定の第1の入力操作が行われたことを検出する前に)設定されている演算式から他の演算式に設定変更する制御を行うことが好ましい。   Here, when the control unit detects that a predetermined first input operation has been performed on the key box object by the input detection unit, the control unit executes the control on a plurality of key objects included in the key box object. It is preferable to perform control to change the setting of the logical operation from the currently set operation equation (that is, before detecting that the predetermined first input operation has been performed) to another operation equation.

また、前記制御部は、前記入力検出部により前記キーボックスオブジェクトに所定の第2の入力操作が行われたことを検出したら、前記キーボックスオブジェクトに含まれるキーオブジェクトを前記表示部により画面に表示させ、表示されたキーオブジェクトのいずれかが選択されたことを検出したら、当該キーオブジェクトを前記キーボックスオブジェクトから削除する制御を行うことが好ましい。   In addition, when the control unit detects that the input detection unit has performed a predetermined second input operation on the key box object, the control unit displays the key object included in the key box object on the screen. When it is detected that any one of the displayed key objects is selected, it is preferable to perform control to delete the key object from the key box object.

また、前記制御部は、前記キーオブジェクトを前記表示部により画面に表示させている状態で、前記入力検出部により前記キーオブジェクトが前記キーボックスオブジェクトの表示領域内に移動されたことを検出したら、当該キーオブジェクトを前記キーボックスオブジェクトに含める制御を行うことが好ましい。   Further, when the control unit detects that the key object is moved into the display area of the key box object by the input detection unit in a state where the key object is displayed on the screen by the display unit, It is preferable to perform control to include the key object in the key box object.

また、前記制御部は、前記入力検出部により前記キーボックスオブジェクトが移動された量を検出し、前記キーボックスオブジェクトが移動された量に基づいて抽出する項目オブジェクトの前記適合率の範囲を算出する制御を行うことが好ましい。   Further, the control unit detects an amount of movement of the key box object by the input detection unit, and calculates a range of the relevance ratio of the item object to be extracted based on the amount of movement of the key box object. It is preferable to perform control.

また、前記制御部は、抽出した項目オブジェクトの集合を新たなグループオブジェクトとすることが好ましい。   Moreover, it is preferable that the said control part makes the group of the extracted item object a new group object.

また、前記制御部は、前記グループオブジェクトに含まれる項目オブジェクトを前記表示部に表示させ、前記抽出された項目オブジェクトを前記キーオブジェクトの近傍に表示させることが好ましい。   The control unit may display an item object included in the group object on the display unit, and display the extracted item object in the vicinity of the key object.

また、前記制御部は、前記キーオブジェクトと前記グループオブジェクトとの距離に応じて算出する適合率の範囲を変動させ、前記距離が近いほど前記適合率の低い項目オブジェクトも含めて抽出し、前記距離が遠いほど前記適合率の高い項目オブジェクトだけを抽出することが好ましい。   In addition, the control unit varies the range of the relevance ratio calculated according to the distance between the key object and the group object, and extracts the item object having a lower relevance ratio as the distance is closer, and extracts the distance It is preferable to extract only item objects having a higher relevance ratio as the distance is farther.

また、前記制御部は、前記キーオブジェクトの前記グループオブジェクトの表示領域内での移動距離に応じて、抽出する項目オブジェクトの前記適合率の範囲を算出し、前記移動距離が長いほど前記適合率の低い項目オブジェクトも含めて抽出し、前記移動距離が短いほど前記適合率の高い項目オブジェクトだけを抽出することが好ましい。   In addition, the control unit calculates the range of the relevance ratio of the item object to be extracted according to the movement distance of the key object in the display area of the group object. It is preferable to extract including low item objects, and to extract only item objects having a higher matching rate as the moving distance is shorter.

また、前記制御部は、前記キーオブジェクトが選択された状態、なおかつ、当該状態の時点での前記適合率の範囲に基づいて項目オブジェクトの抽出が行われている状態で、前記入力検出部で前記キーオブジェクトへのタップが検出されたら、抽出する項目オブジェクトの適合率の範囲を当該タップ発生前よりも狭くすることが好ましい。   In addition, the control unit may be configured so that the input object is extracted by the input detection unit in a state where the key object is selected and an item object is extracted based on the range of the relevance ratio at the time of the state. When a tap on the key object is detected, it is preferable that the range of the relevance ratio of the item object to be extracted is narrower than that before the occurrence of the tap.

また、前記制御部は、タップ時間が長いほど、抽出する項目オブジェクトの適合率の範囲をより狭くすることが好ましい。   Moreover, it is preferable that the control unit narrows the range of the matching rate of the item object to be extracted as the tap time is longer.

また、前記制御部は、タップ回数が多いほど、抽出する項目オブジェクトの適合率の範囲をより狭くすることが好ましい。   Further, it is preferable that the control unit narrows the range of the matching rate of the item object to be extracted as the number of taps increases.

また、前記制御部は、前記グループオブジェクトに含まれる前記項目オブジェクトの数が多いほど当該グループオブジェクトを前記表示部に大きく表示し、前記グループオブジェクトに含まれる前記項目オブジェクトの数が少ないほど、当該グループオブジェクトを前記表示部に小さく表示することが好ましい。   Further, the control unit displays the group object larger on the display unit as the number of the item objects included in the group object is larger, and the group object as the number of the item objects included in the group object is smaller. It is preferable to display the object small on the display unit.

また、前記制御部は、前記グループオブジェクトの外周に輪郭線を付けて前記表示部に表示させることが好ましい。   Moreover, it is preferable that the said control part attaches an outline to the outer periphery of the said group object, and displays it on the said display part.

また、前記制御部は、前記入力検出部は、前記表示部の前面に配置された接触センサであり、前記表示部に負荷された力を入力として検出し、前記制御部は、負荷が入力された位置と前記表示部に表示させている画像とを対応付けて、操作されたキーオブジェクトを判定することが好ましい。   Further, the control unit is a contact sensor disposed on a front surface of the display unit, and detects a force applied to the display unit as an input, and the control unit receives a load. It is preferable that the operated key object is determined by associating the displayed position with the image displayed on the display unit.

本発明にかかる通信機器及び携帯電子機器は、高い操作性で絞り込み検索を実行することが可能となるという効果を奏する。   The communication device and the portable electronic device according to the present invention have an effect that a narrow search can be executed with high operability.

図1は、本発明の通信機器並びに携帯電子機器の一実施形態として携帯電子通信機器の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a portable electronic communication device as an embodiment of the communication device and the portable electronic device of the present invention. 図2は、図1に示す携帯電子通信機器のソフトウェアの概略構成を示すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of software of the portable electronic communication device shown in FIG. 図3は、表示デバイスに表示される画像の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of an image displayed on the display device. 図4は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 4 is a flowchart showing an example of the processing operation of the portable electronic communication device. 図5−1は、携帯電子通信機器の動作を説明するための説明図である。FIG. 5A is an explanatory diagram for explaining the operation of the portable electronic communication device. 図5−2は、携帯電子通信機器の動作を説明するための説明図である。FIG. 5B is an explanatory diagram for explaining the operation of the portable electronic communication device. 図5−3は、携帯電子通信機器の動作を説明するための説明図である。FIG. 5C is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図5−4は、携帯電子通信機器の動作を説明するための説明図である。FIG. 5-4 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図6は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 6 is a flowchart showing an example of the processing operation of the portable electronic communication device. 図7−1は、携帯電子通信機器の動作を説明するための説明図である。FIG. 7A is an explanatory diagram for explaining the operation of the portable electronic communication device. 図7−2は、携帯電子通信機器の動作を説明するための説明図である。FIG. 7-2 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図7−3は、携帯電子通信機器の動作を説明するための説明図である。FIG. 7C is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図7−4は、携帯電子通信機器の動作を説明するための説明図である。7-4 is explanatory drawing for demonstrating operation | movement of a portable electronic communication apparatus. 図8は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 8 is a flowchart showing an example of the processing operation of the portable electronic communication device. 図9−1は、携帯電子通信機器の動作を説明するための説明図である。FIG. 9A is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図9−2は、携帯電子通信機器の動作を説明するための説明図である。FIG. 9-2 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図9−3は、携帯電子通信機器の動作を説明するための説明図である。FIG. 9C is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図9−4は、携帯電子通信機器の動作を説明するための説明図である。9-4 is explanatory drawing for demonstrating operation | movement of a portable electronic communication apparatus. 図10は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 10 is a flowchart showing an example of the processing operation of the portable electronic communication device. 図11は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 11 is a flowchart showing an example of the processing operation of the portable electronic communication device. 図12−1は、携帯電子通信機器の動作を説明するための説明図である。FIG. 12A is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図12−2は、携帯電子通信機器の動作を説明するための説明図である。FIG. 12-2 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図12−3は、携帯電子通信機器の動作を説明するための説明図である。FIG. 12C is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図12−4は、携帯電子通信機器の動作を説明するための説明図である。FIG. 12D is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図13−1は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 13A is a flowchart illustrating an example of a processing operation of the portable electronic communication device. 図13−2は、携帯電子通信機器の処理動作の一例を示すフロー図である。FIG. 13-2 is a flowchart illustrating an example of a processing operation of the portable electronic communication device. 図14−1は、携帯電子通信機器の動作を説明するための説明図である。FIG. 14A is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図14−2は、携帯電子通信機器の動作を説明するための説明図である。FIG. 14-2 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図14−3は、携帯電子通信機器の動作を説明するための説明図である。FIG. 14C is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図15は、携帯電子通信機器の動作を説明するためのグラフである。FIG. 15 is a graph for explaining the operation of the portable electronic communication device. 図16−1は、携帯電子通信機器の動作を説明するための説明図である。FIG. 16A is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図16−2は、携帯電子通信機器の動作を説明するための説明図である。FIG. 16-2 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図17は、携帯電子通信機器の動作を説明するための説明図である。FIG. 17 is an explanatory diagram for explaining the operation of the mobile electronic communication device. 図18は、携帯電子通信機器の動作を説明するためのグラフである。FIG. 18 is a graph for explaining the operation of the portable electronic communication device.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、通信機器として携帯電子通信機器、より具体的には、携帯電話機を例として説明するが、本発明の適用対象は携帯電話機に限定されるものではなく、例えば、PHS(Personal Handy phone System)、PDA、ナビゲーション装置、ノートパソコン、ゲーム機等に対しても本発明は適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a portable electronic communication device is described as an example of a communication device, and more specifically, a mobile phone is described as an example. However, the application target of the present invention is not limited to a mobile phone. For example, PHS (Personal Handy phone) System), PDA, navigation device, notebook computer, game machine, and the like.

図1は、本発明の通信機器並びに携帯電子機器の一実施形態として携帯電子通信機器の概略構成を示すブロック図である。図1に示すように携帯電子通信機器10は、基本的に、CPU(Central Processing Unit)22と、通信部26と、音声処理部30と、表示デバイス32と、入力デバイス34と、ROM36と、RAM38と、内部ストレージ40と、外部ストレージインターフェース(I/F、interface)42を有する。また、携帯電子通信機器10は、外部ストレージI/F42を介して外部ストレージ46と接続されている。なお、携帯電子通信機器10は、上記構成の他にも撮像部や、各種端子等、携帯電子通信機器として有する各種構成を有している。また、携帯電子通信機器の外形形状は、ヒンジで連結された2つの部材で構成され、折りたたみ可能な形状や、2つの部材をスライドさせる形状や、1つの箱型の形状等、種々の形状とすることができる。   FIG. 1 is a block diagram showing a schematic configuration of a portable electronic communication device as an embodiment of the communication device and the portable electronic device of the present invention. As shown in FIG. 1, the portable electronic communication device 10 basically includes a CPU (Central Processing Unit) 22, a communication unit 26, an audio processing unit 30, a display device 32, an input device 34, a ROM 36, A RAM 38, an internal storage 40, and an external storage interface (I / F, interface) 42 are included. The portable electronic communication device 10 is connected to the external storage 46 via the external storage I / F 42. In addition to the above-described configuration, the mobile electronic communication device 10 has various configurations that are included in the mobile electronic communication device, such as an imaging unit and various terminals. In addition, the external shape of the portable electronic communication device is composed of two members connected by a hinge, and can have various shapes such as a foldable shape, a shape in which two members are slid, and a single box shape. can do.

CPU22は、携帯電子通信機器10の全体的な動作を統括的に制御する処理部である。すなわち、携帯電子通信機器10の各種の処理が、入力デバイス34の操作や携帯電子通信機器10のROM36、内部ストレージ40に保存されるソフトウェアに応じて適切な手順で実行されるように、通信部26や、表示デバイス32等の動作を制御する。携帯電子通信機器10の各種の処理としては、例えば、回線交換網を介して行われる音声通話、電子メールの作成及び送受信、インターネットのWeb(World Wide Web)サイトの閲覧等がある。また、通信部26、音声処理部30、表示デバイス32等の動作としては、例えば、通信部26による信号の送受信、音声処理部30による音声の入出力、表示デバイス32による画像の表示等がある。   The CPU 22 is a processing unit that comprehensively controls the overall operation of the mobile electronic communication device 10. That is, the communication unit is configured so that various processes of the mobile electronic communication device 10 are executed in an appropriate procedure according to the operation of the input device 34 and the software stored in the ROM 36 and the internal storage 40 of the mobile electronic communication device 10. 26, the operation of the display device 32, and the like are controlled. Various processes of the portable electronic communication device 10 include, for example, a voice call performed via a circuit switching network, creation and transmission / reception of an electronic mail, browsing of a Web (World Wide Web) site on the Internet, and the like. The operations of the communication unit 26, the audio processing unit 30, the display device 32, and the like include, for example, transmission / reception of signals by the communication unit 26, input / output of audio by the audio processing unit 30, display of images by the display device 32, and the like. .

CPU22は、ROM36、内部ストレージ40に保存されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。CPU22は、例えば、マイクロプロセッサユニット(MPU:Micro Processor Unit)で構成され、前記ソフトウェアで指示された手順にしたがって上述した携帯電子通信機器10の各種の処理を実行する。すなわち、CPU22は、ROM36、内部ストレージ40に保存されるオペレーティングシステムプログラムやアプリケーションプログラム等から命令コードを順次読み込んで処理を実行する。   The CPU 22 executes processing based on programs (for example, operating system programs, application programs, etc.) stored in the ROM 36 and the internal storage 40. The CPU 22 is constituted by, for example, a microprocessor unit (MPU: Micro Processor Unit), and executes various processes of the portable electronic communication device 10 described above according to a procedure instructed by the software. That is, the CPU 22 sequentially reads instruction codes from the operating system program, application program, and the like stored in the ROM 36 and the internal storage 40 and executes processing.

CPU22は、複数のアプリケーションプログラムを実行する機能を有する。CPU22が実行するアプリケーションプログラムとしては、例えば、表示デバイス32に画像を表示させる画像表示アプリケーションプログラムや、入力デバイス34で検出した入力に基づいて入力された操作を算出する操作検出アプリケーションプログラムや、絞り込み検索を行う検索アプリケーションプログラムや、インターネット通信を行うインターネットアプリケーションプログラムや、メールを作成するメールアプリケーションプログラム、電話をかけるための電話アプリケーションプログラム等の複数のアプリケーションプログラムがある。   The CPU 22 has a function of executing a plurality of application programs. Examples of application programs executed by the CPU 22 include an image display application program for displaying an image on the display device 32, an operation detection application program for calculating an operation input based on an input detected by the input device 34, and a narrowing search. There are a plurality of application programs such as a search application program for performing communication, an Internet application program for performing Internet communication, a mail application program for creating mail, and a telephone application program for making calls.

通信部26は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。   The communication unit 26 establishes a radio signal line by a CDMA system or the like with a base station via a channel assigned by the base station, and performs telephone communication and information communication with the base station.

音声処理部30は、マイク50に入力される音声信号やレシーバ52から出力される音声信号の処理を実行する。すなわち、音声処理部30は、マイク50から入力される音声を増幅し、AD変換(Analog Digital変換)を実行した後さらに符号化等の信号処理を施して、ディジタルの音声データに変換してCPU22へ出力する。また、CPU22から送られる音声データに対して復号化、DA変換(Digital Analog変換)、増幅等の処理を施してアナログの音声信号に変換してから、レシーバ52へ出力する。   The audio processing unit 30 executes processing of an audio signal input to the microphone 50 and an audio signal output from the receiver 52. That is, the sound processing unit 30 amplifies the sound input from the microphone 50, performs AD conversion (Analog Digital conversion), and then performs signal processing such as encoding to convert the sound into digital sound data to be converted into the CPU 22 Output to. Further, the audio data sent from the CPU 22 is subjected to processing such as decoding, DA conversion (Digital Analog conversion), amplification, etc. to convert it into an analog audio signal, which is then output to the receiver 52.

表示デバイス32は、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどの表示パネルを備え、CPU22から供給される映像データに応じた映像、画像データに応じた画像を表示パネルに表示させる。   The display device 32 includes a display panel such as a liquid crystal display (LCD) or an organic EL (Organic Electro-Luminescence) panel, and a video corresponding to video data supplied from the CPU 22 and an image corresponding to the image data. Is displayed on the display panel.

入力デバイス34は、表示デバイス32の前面に配置されたタッチパネルであり、操作者が表面を触るとその接触を入力として検出する。なお、入力デバイス34は、接触された位置や、その接触の強さ等を検出する。タッチパネルとしては、マトリクススイッチ、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等種々の方式のタッチパネルを用いることができる。ここで、表示デバイス32に電源キー、通話キー、数字キー、文字キー、方向キー、決定キー、発信キーなど、各種の機能が割り当てられたキーの画像を表示させた状態のときに操作者によって入力デバイス34が押されたら、入力デバイス34は、押された位置(接触があった位置)を検出する。携帯電子通信機器10のCPU22は、入力デバイス34が接触を検出した位置に対応するキーの操作が入力されたとして、その処理を行う。   The input device 34 is a touch panel arranged on the front surface of the display device 32, and detects the contact as an input when the operator touches the surface. The input device 34 detects the touched position, the strength of the touch, and the like. As the touch panel, various types of touch panels such as a matrix switch, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method can be used. Here, when an image of a key to which various functions such as a power key, a call key, a numeric key, a character key, a direction key, a decision key, and a call key are displayed on the display device 32 is displayed by the operator. When the input device 34 is pressed, the input device 34 detects the pressed position (the position where the touch has occurred). The CPU 22 of the portable electronic communication device 10 performs the process on the assumption that the key operation corresponding to the position where the input device 34 has detected contact is input.

ROM(Read Only Memory)36は、読み取り専用の記憶デバイスであり、BIOS等携帯電子通信機器10の駆動に用いるファームウェアが記憶されている。RAM(Random Access Memory)38は、読み書き可能な記憶デバイスであり、(例えば、SRAM:Static Random Access Memory、DRAM:Dynamic Random Access Memory)等で構成される。ROM36とRAM38とで、主記憶装置が構成される。また、ROM36やRAM38は、ソフトウェアの処理過程で用いられるコンピュータプログラムや一時的なデータが、CPU22により割り当てられ、割り当てられたデータを一時的に作業領域に保存する。   A ROM (Read Only Memory) 36 is a read-only storage device, and stores firmware used for driving the portable electronic communication device 10 such as BIOS. A RAM (Random Access Memory) 38 is a readable / writable storage device, and is composed of, for example, an SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory). The ROM 36 and the RAM 38 constitute a main storage device. In the ROM 36 and RAM 38, computer programs and temporary data used in the software processing process are assigned by the CPU 22, and the assigned data are temporarily stored in the work area.

内部ストレージ(内部メモリ)40は、携帯電子通信機器10に備え付けられた読み取り及び書き込み可能な記憶装置、例えば、ハードディスクである。内部ストレージ40は、補助記憶装置として利用され、CPU22での処理に利用されるソフトウェアやデータが保存されている。また、内部ストレージ40には、これらのタスク以外に、通信、ダウンロードされた画像データを保存する画像フォルダや、待ち受け画像に使用される画像ファイルを保存する待ち受け画像フォルダ等も有する。また、内部ストレージ40には、これら以外にも、例えば、通信、ダウンロードされた音声データ、あるいは内部ストレージ40に対する制御にCPU22が用いるソフトウェア、通信相手の電話番号やメールアドレス等を保存し、管理するアドレス帳、発信音や着信音等の音声ファイル、ソフトウェアの処理過程で用いられる一時的なデータ等が保存されている。   The internal storage (internal memory) 40 is a readable and writable storage device provided in the portable electronic communication device 10, for example, a hard disk. The internal storage 40 is used as an auxiliary storage device, and stores software and data used for processing by the CPU 22. In addition to these tasks, the internal storage 40 also has an image folder for storing communication and downloaded image data, a standby image folder for storing image files used for standby images, and the like. In addition to these, the internal storage 40 stores and manages, for example, communication, downloaded audio data, software used by the CPU 22 to control the internal storage 40, the telephone number and mail address of the communication partner, and the like. An address book, voice files such as dial tone and ring tone, temporary data used in software processing, and the like are stored.

外部ストレージI/F42は、着脱可能な外部ストレージ46と接続する端子である。外部ストレージI/F42と外部ストレージ46とを接続することで、CPU22と外部ストレージ46との間でデータの送受信を行うことが可能となる。外部ストレージ(外部メモリ)46は、外部ストレージI/F42を介して、携帯電子通信機器10に着脱可能な記憶装置であり、SDカード(登録商標)、コンパクトフラッシュ(登録商標)等のメモリーカードや、着脱可能なHDD(Hard Disk Drive)を用いることができる。また、外部ストレージI/F42と外部ストレージ46との組み合わせとしては、リムーバブルディスクドライブ(Removable Disk Drive)と、リムーバブルディスクを組み合わせてもよい。   The external storage I / F 42 is a terminal connected to the removable external storage 46. By connecting the external storage I / F 42 and the external storage 46, data can be transmitted and received between the CPU 22 and the external storage 46. The external storage (external memory) 46 is a storage device that can be attached to and detached from the portable electronic communication device 10 via the external storage I / F 42, and includes a memory card such as an SD card (registered trademark) or a compact flash (registered trademark). A removable HDD (Hard Disk Drive) can be used. As a combination of the external storage I / F 42 and the external storage 46, a removable disk drive and a removable disk may be combined.

次に、図2を用いて、携帯電子通信機器10のソフトウェアの構成について説明する。ここで、図2は、携帯電子通信機器のソフトウェアの概略構成を示すブロック図であり、図3は、表示デバイスに表示される画像の一例を示す説明図である。なお、図2では、説明のために、各ソフトウェア(アプリケーションプログラム)が個別に設けられているように示すが、CPU22、ROM36、RAM38、内部ストレージ40等の間で、信号のやり取り、データの処理が行われているものであり、各部が目視上別々に設けられているわけではない。また、図2には、ソフトウェアとして項目オブジェクトの絞り込み検索と画像表示に関するソフトウェアを示しているが、携帯電子通信機器10は、図2に示すソフトウェア以外にも種々のソフトウェアを備えている。なお、オブジェクトとは、操作者による操作の対象となるアイテム(操作の対象となるデータ等を抽象化して表示したもの)であり、グループオブジェクト(フォルダ)や、項目オブジェクト(ファイル)、キーオブジェクト(検索条件)、キーオブジェクトを複数含むことが可能な検索キーボックスオブジェクト等である。なお、フォルダ(ディレクトリ)としては、操作者により作成されたフォルダのみならず、絞り込み検索によって携帯電子通信機器10により作成されたフォルダや、絞り込み検索によって検出されたファイルの集合を管理するために一時的に作成されたフォルダも含まれる。また、ファイルとしては、画像データ、音声データ、また、インターネットホームページのデータ、メールアドレスや電話番号が登録されたアドレス帳のデータ等が例示される。さらに、検索条件としては、キーワードとなる文字や、閾値となる数値(日時やサイズ、画像の場合は人数)、ファイルのジャンル(例えば、画像の場合は風景、人物写真等、音楽の場合は、クラシック、ヒップホップ、ロック等、アドレス帳の場合にはグループのカテゴリ等)等がある。   Next, the software configuration of the portable electronic communication device 10 will be described with reference to FIG. Here, FIG. 2 is a block diagram illustrating a schematic configuration of software of the portable electronic communication device, and FIG. 3 is an explanatory diagram illustrating an example of an image displayed on the display device. In FIG. 2, for the sake of explanation, each software (application program) is shown as being provided separately. However, signal exchange and data processing among the CPU 22, ROM 36, RAM 38, internal storage 40, etc. However, each part is not visually provided separately. Further, FIG. 2 shows software related to item object narrowing search and image display as software, but the portable electronic communication device 10 includes various software in addition to the software shown in FIG. An object is an item to be operated by an operator (displayed by abstracting data to be operated), a group object (folder), an item object (file), a key object ( Search condition), and a search key box object that can include a plurality of key objects. Note that the folder (directory) is not only a folder created by the operator, but also a folder created by the portable electronic communication device 10 by the narrowing search and a temporary set for managing a set of files detected by the narrowing search. Includes folders created automatically. Examples of the file include image data, audio data, Internet home page data, address book data in which mail addresses and telephone numbers are registered, and the like. In addition, as search conditions, the character used as a keyword, the numerical value used as a threshold (date and time, the number of people in the case of an image), the genre of a file (for example, in the case of an image, landscape, portrait, etc. Classic, hip hop, rock, etc., in the case of an address book, group category, etc.).

ここで、図3を用いて、絞り込み検索が行われる際に画面上に表示される各部を説明する。図3に示すように、表示デバイスには、複数の項目オブジェクト104を有するグループオブジェクト102と、検索条件となる(検索条件を抽象化した)キーオブジェクト106と、グループオブジェクト102の中から項目オブジェクトを絞り込む条件となるキーオブジェクトを複数含むことが可能な検索キーボックスオブジェクト108が表示されている。ここで、図3に示す例では、グループオブジェクト102は、複数の項目オブジェクト104が記憶されたフォルダであり、「Aさん」という名称のグループオブジェクトと、「Bさん」という名称のグループオブジェクトが表示されている。また、各グループオブジェクト102は、グループオブジェクトの表示領域の外周が点線で囲われている。つまり、グループオブジェクトと他の部分との境界線が表示されている。また、グループオブジェクト102の内部には、グループオブジェクト102に所属する項目オブジェクト104が表示されている。   Here, with reference to FIG. 3, each unit displayed on the screen when the refinement search is performed will be described. As shown in FIG. 3, the display device includes a group object 102 having a plurality of item objects 104, a key object 106 that is a search condition (abstracting the search condition), and an item object from among the group objects 102. A search key box object 108 that can include a plurality of key objects serving as a narrowing condition is displayed. In the example illustrated in FIG. 3, the group object 102 is a folder in which a plurality of item objects 104 are stored. A group object named “Mr. A” and a group object named “Mr. B” are displayed. Has been. In each group object 102, the outer periphery of the display area of the group object is surrounded by a dotted line. That is, the boundary line between the group object and another part is displayed. An item object 104 belonging to the group object 102 is displayed inside the group object 102.

また、項目オブジェクト104は、画像ファイルで構成されており、表示デバイスには、項目オブジェクト104として画像ファイルのサムネイル画像が表示されている。また、キーオブジェクト106は、絞り込み条件となる文言が記載されており、グループオブジェクト102とは、一定距離以上離間した位置に表示されている。また、検索キーボックスオブジェクト108も、グループオブジェクト102とは、一定距離以上離間した位置に表示されている。なお、表示デバイス32に表示された画像の操作方法、またその操作に基づいた絞り込み検索の制御方法については、後ほど説明する。   The item object 104 is composed of an image file, and a thumbnail image of the image file is displayed as the item object 104 on the display device. Further, the key object 106 is described in terms of a narrowing condition, and is displayed at a position separated from the group object 102 by a certain distance or more. The search key box object 108 is also displayed at a position separated from the group object 102 by a certain distance or more. A method for operating the image displayed on the display device 32 and a control method for narrowing search based on the operation will be described later.

図2に示すように、携帯電子通信機器10のソフトウェアは、絞り込み検索を行う検索部60と、表示デバイス32に表示する画像を制御する表示部62と、入力デバイス34からの入力を検出する入力部64と、内部ストレージ40及び外部ストレージ46とデータの送受信を行うコンテンツ制御部66とを有する。以下、各部の構成を説明する。   As illustrated in FIG. 2, the software of the mobile electronic communication device 10 includes a search unit 60 that performs a narrow search, a display unit 62 that controls an image displayed on the display device 32, and an input that detects an input from the input device 34. A content control unit 66 that transmits and receives data to and from the internal storage 40 and the external storage 46. Hereinafter, the configuration of each unit will be described.

検索部60は、検索制御部68と、オブジェクト制御部70と、オブジェクト表示部72と、オブジェクト操作部74と、オブジェクト管理部76と、オブジェクト情報データベース78と、コンテンツ管理部80と、検索インデックスデータベース82と、コンテンツ情報データベース84と、コンテンツアクセス部86とを有する。検索部60は、複数の項目オブジェクトが集められたグループオブジェクトを読み出し、グループオブジェクト内の各項目オブジェクトと検索条件との適合率を算出し、グループオブジェクト内の項目オブジェクトの中から適合率が条件を満たす、つまり、適合率が所定の範囲の項目オブジェクトを抽出することで絞り込み検索を行う。また、本実施形態では、検索部60は、適合率が高いものから抽出を行い、適合率が100%から決定された割合までの間に含まれると判定された項目オブジェクトを抽出する。なお、抽出する適合率の範囲を決定する方法は、後ほど説明する。   The search unit 60 includes a search control unit 68, an object control unit 70, an object display unit 72, an object operation unit 74, an object management unit 76, an object information database 78, a content management unit 80, and a search index database. 82, a content information database 84, and a content access unit 86. The search unit 60 reads a group object in which a plurality of item objects are collected, calculates a matching rate between each item object in the group object and the search condition, and the matching rate is determined from the item objects in the group object. A narrowing search is performed by extracting item objects that satisfy, that is, the matching rate is in a predetermined range. In the present embodiment, the search unit 60 performs extraction from items having a high relevance rate, and extracts item objects determined to be included between 100% and the determined ratio. A method for determining the range of the precision to be extracted will be described later.

検索制御部68は、オブジェクト制御部70及びコンテンツ管理部80との間で、情報のやり取りを行い、各部から供給される情報に基づいて、項目オブジェクトの絞り込み検索を行う。オブジェクト制御部70は、オブジェクト表示部72、オブジェクト操作部74、オブジェクト管理部76と情報のやり取りを行い、グループオブジェクト、項目オブジェクト、キーオブジェクト、検索キーボックスオブジェクト等、種々のオブジェクトの挙動を制御する。具体的には、表示させるオブジェクトの選択、オブジェクトを表示させる位置の決定、また、検索制御部68の決定に基づいた新たなグループオブジェクトの作成、また、各項目オブジェクトが所属するグループオブジェクトの決定、移動、キーオブジェクトの生成等を行う。   The search control unit 68 exchanges information with the object control unit 70 and the content management unit 80, and performs a narrow-down search for item objects based on information supplied from each unit. The object control unit 70 exchanges information with the object display unit 72, the object operation unit 74, and the object management unit 76, and controls the behavior of various objects such as group objects, item objects, key objects, and search key box objects. . Specifically, selection of an object to be displayed, determination of a position to display an object, creation of a new group object based on determination of the search control unit 68, determination of a group object to which each item object belongs, Move, create key objects, etc.

オブジェクト表示部72は、オブジェクト制御部70による制御に基づいて決定された、表示するオブジェクトの情報を表示部62の表示制御部88に送る。つまり、オブジェクト表示部72は、どのグループオブジェクト、項目オブジェクト、キーオブジェクト、検索キーボックスオブジェクトを表示させるか、また各オブジェクトをどの位置にどのように表示させるかの情報を表示制御部88に送る。   The object display unit 72 sends information on the object to be displayed, determined based on the control by the object control unit 70, to the display control unit 88 of the display unit 62. That is, the object display unit 72 sends to the display control unit 88 information on which group object, item object, key object, and search key box object are displayed and how each object is displayed at which position.

オブジェクト操作部74は、入力部64から送られてきた入力信号に基づいて、操作するオブジェクト及びそのオブジェクトの操作を決定して、決定した操作対象のオブジェクトの信号及び決定した操作の信号をオブジェクト制御部70に送る。   The object operation unit 74 determines an object to be operated and an operation of the object based on the input signal sent from the input unit 64, and performs object control on the determined signal of the operation target object and the determined operation signal. Send to part 70.

オブジェクト管理部76は、各オブジェクトを管理する機能を有し、オブジェクト情報データベース78は、各オブジェクトに関する情報を記憶する記憶手段である。ここで、各オブジェクトに関する情報としては、オブジェクトがどのグループオブジェクトに所属しているかを示す情報、絞り込み検索の際にオブジェクトの適合率を算出するための情報や、キーオブジェクトの情報等、絞り込み検索やオブジェクトの操作に必要な種々の情報が記憶されている。なお、オブジェクト情報データベース78には、表示デバイス32の画面上に表示されているオブジェクトに関する情報が記憶されている。オブジェクト管理部76は、オブジェクト情報データベース78の情報を適宜読み出し、オブジェクト制御部70に送り、また、オブジェクトに関する情報が更新されたら、オブジェクト情報データベース78に記憶されている情報を更新する。   The object management unit 76 has a function of managing each object, and the object information database 78 is a storage unit that stores information about each object. Here, as information about each object, information indicating which group object the object belongs to, information for calculating the relevance ratio of the object in the narrowing search, information on the key object, etc. Various information necessary for the operation of the object is stored. Note that the object information database 78 stores information related to objects displayed on the screen of the display device 32. The object management unit 76 appropriately reads information in the object information database 78, sends it to the object control unit 70, and updates the information stored in the object information database 78 when the information about the object is updated.

次に、コンテンツ管理部80は、検索インデックスデータベース82、コンテンツ情報データベース84、コンテンツアクセス部86を有し、内部ストレージ40や外部ストレージ46に記憶されている写真や、音楽データ、アドレス帳のデータ等のファイルを、コンテンツ制御部66を介して読み出したり、各ファイルを内部ストレージ40や外部ストレージ46に書き込んだりする。   Next, the content management unit 80 includes a search index database 82, a content information database 84, and a content access unit 86, and photographs, music data, address book data, etc. stored in the internal storage 40 and the external storage 46, etc. These files are read out via the content control unit 66, and each file is written into the internal storage 40 or the external storage 46.

検索インデックスデータベース82は、絞り込み検索に用いる検索条件に関する情報が記憶されている。なお、検索インデックスデータベース82は、必要に応じて、表示デバイス32の画面上にキーオブジェクトとして表示されている検索条件に関する情報以外の検索条件に関する情報についても記憶されている。   The search index database 82 stores information related to search conditions used for narrowing search. Note that the search index database 82 also stores information on search conditions other than information on search conditions displayed as key objects on the screen of the display device 32 as necessary.

コンテンツ情報データベース84は、項目オブジェクトとなっている音声データや、画像ファイル、インターネットサイト等のデータが記憶されている。つまり、画面上に表示されている項目オブジェクトに対応するファイルの情報(音声情報や、画像情報)が記憶されている。なお、コンテンツ情報データベース84は、必要に応じて、表示デバイス32に表示されている項目オブジェクト以外の項目オブジェクトのファイルの情報も記憶している。コンテンツアクセス部86は、コンテンツ制御部66と情報のやり取りを行い、コンテンツ制御部66が取得したファイルの情報や、ソフトウェアの情報等を読み取り、コンテンツ管理部80から送られるファイルの情報や、ソフトウェアの情報をコンテンツ制御部66に送る。   The content information database 84 stores audio data, image files, Internet sites, and the like as item objects. That is, file information (audio information and image information) corresponding to the item object displayed on the screen is stored. The content information database 84 also stores file information of item objects other than the item objects displayed on the display device 32 as necessary. The content access unit 86 exchanges information with the content control unit 66, reads the file information, software information, and the like acquired by the content control unit 66. Information is sent to the content control unit 66.

表示部62は、表示制御部88と、描画エンジン部90とを有し、検索部60のオブジェクト表示部72から送られる情報に基づいて、表示デバイス32に表示させる画像の画像信号を生成し、表示デバイス32に送る。表示制御部88は、オブジェクト表示部72から送られる情報、つまり、どのオブジェクトをどの位置にどのように表示させるかの情報に基づいて、表示させる画像を作成する。描画エンジン部90は、表示制御部88で作成された画像を画像信号に変換し、変換した画像信号を表示デバイス32に送る。このようにして、表示デバイス32は、検索部60から送られた情報に基づいて表示部62で作成された画像を表示させる。なお、表示部62は、他のソフトウェアが起動されている場合は、オブジェクト表示部72から送られた情報以外の種々のソフトウェアから送られる情報にも基づいて画像を生成する。   The display unit 62 includes a display control unit 88 and a drawing engine unit 90, generates an image signal of an image to be displayed on the display device 32 based on information sent from the object display unit 72 of the search unit 60, and Send to display device 32. The display control unit 88 creates an image to be displayed based on information sent from the object display unit 72, that is, information on which object is displayed in which position and how. The drawing engine unit 90 converts the image created by the display control unit 88 into an image signal, and sends the converted image signal to the display device 32. In this way, the display device 32 displays the image created by the display unit 62 based on the information sent from the search unit 60. When other software is activated, the display unit 62 generates an image based on information sent from various software other than the information sent from the object display unit 72.

入力部64は、入力インターフェース(I/F)制御部92を有し、入力デバイス34で検出された操作者の操作をオブジェクト操作部74に送る。入力インターフェース制御部92は、入力デバイス34から送られる信号を検索部60で解析可能な信号に変換して、オブジェクト操作部74に送る。   The input unit 64 includes an input interface (I / F) control unit 92, and sends an operation of the operator detected by the input device 34 to the object operation unit 74. The input interface control unit 92 converts the signal sent from the input device 34 into a signal that can be analyzed by the search unit 60 and sends the signal to the object operation unit 74.

コンテンツ制御部66は、ファイルシステム94を有し、内部ストレージ40及び/または外部ストレージ46から情報の読み取りを行い、読み取った情報をコンテンツアクセス部86に送り、コンテンツアクセス部86から送られた情報を、内部ストレージ40及び/または外部ストレージ46に書き込む。なお、ファイルシステム94は、情報の読み取り、書き込みの管理を行う機能である。   The content control unit 66 has a file system 94, reads information from the internal storage 40 and / or the external storage 46, sends the read information to the content access unit 86, and receives the information sent from the content access unit 86. To the internal storage 40 and / or the external storage 46. The file system 94 has a function of managing information reading and writing.

ところで、絞り込み検索において、複数のキーオブジェクトに対する論理演算(例えば、AND演算、OR演算、NAND演算、NOR演算、XOR(排他的論理和)演算等)の結果に適合する項目オブジェクトを得たい場合がある。   By the way, in the narrowing search, there is a case where it is desired to obtain an item object that matches the result of a logical operation (for example, AND operation, OR operation, NAND operation, NOR operation, XOR (exclusive OR) operation) for a plurality of key objects. is there.

そこで、本実施形態においては、複数のキーオブジェクトに対する論理演算の結果に適合する項目オブジェクトを直感的、視覚的な操作で得ることが出来るようにしている。   Therefore, in this embodiment, item objects that match the results of logical operations on a plurality of key objects can be obtained by intuitive and visual operations.

本実施形態においては、キーオブジェクトを複数含むことが可能な検索キーボックスオブジェクト108を設けて表示することとし、検索キーボックスオブジェクト108に含まれているキーオブジェクトに対する論理演算を実行し、その論理演算の結果に適合する項目オブジェクトをグループオブジェクト102内から抽出することとしている。   In the present embodiment, a search key box object 108 that can include a plurality of key objects is provided and displayed, a logical operation is performed on the key objects included in the search key box object 108, and the logical operation is performed. The item object that matches the result is extracted from the group object 102.

図4は、検索キーボックスオブジェクト108にキーオブジェクトを追加する(含ませる)場合の携帯電子通信機器の処理動作の一例を示すフロー図である。   FIG. 4 is a flowchart showing an example of the processing operation of the portable electronic communication device when a key object is added (included) to the search key box object 108.

なお、ここでは、便宜のため、論理演算として、AND演算及びOR演算を用いるものとして説明するが、先に説明したように他の論理演算(例えば、NAND演算、NOR演算、XOR演算等)を用いることも可能である。   Here, for the sake of convenience, description will be made assuming that an AND operation and an OR operation are used as the logical operation. However, as described above, other logical operations (for example, NAND operation, NOR operation, XOR operation, etc.) are performed. It is also possible to use it.

まず、検索部60は、ステップS10として、キーオブジェクト106がドラッグされたかを判定する。なお、キーオブジェクトのドラッグ移動先が検索キーボックスオブジェクトの表示領域内部であるか否かの判定基準として、例えば、操作者がタッチしている座標が検索キーボックスオブジェクトの表示領域内部であるか否か、検索キーボックスオブジェクトの表示領域とドラッグされているキーオブジェクトの表示領域とが重なっているか否か等を用いることができる。   First, the search part 60 determines whether the key object 106 was dragged as step S10. As a criterion for determining whether or not the drag movement destination of the key object is within the search key box object display area, for example, whether or not the coordinates touched by the operator are within the search key box object display area. Alternatively, whether or not the display area of the search key box object and the display area of the dragged key object overlap can be used.

検索部60は、ステップS10でキーオブジェクト106がドラッグされた(Yes)と判定したら、ステップS12として、検索キーボックスオブジェクト108に現在設定されている論理演算(例えば、デフォルトの論理演算であっても良いし、後で説明するように操作者によって選択された論理演算であっても良い。)がAND演算であるかを判定する。   If the search unit 60 determines in step S10 that the key object 106 has been dragged (Yes), the logical operation currently set in the search key box object 108 (eg, even if it is a default logical operation) is determined in step S12. It may be a logical operation selected by an operator as will be described later).

検索部60は、ステップS12で検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算である(Yes)と判定したら、ステップS14として、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にAND演算を実行し、検索条件を作成する。なお、作成された検索条件をオブジェクト情報データベース78(図2参照)に記憶しておくようにしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106が1つの場合には、検索部60は、ステップS14を実行せずにスキップしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にAND演算を実行して作成された検索条件が既にオブジェクト情報データベース78に記憶されている場合には、検索部60は、ステップS14を実行せずにスキップしても良い。さらに、検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算であることが視覚的、直感的に把握できるように、検索キーボックスオブジェクト108を所定の色(例えば、赤等)で表示するようにしても良い。   If the search unit 60 determines in step S12 that the logical operation currently set in the search key box object 108 is an AND operation (Yes), the key object currently included in the search key box object 108 is determined in step S14. An AND operation is performed on 106 to create a search condition. The created search condition may be stored in the object information database 78 (see FIG. 2). When the search key box object 108 includes one key object 106, the search unit 60 may skip without executing step S14. If the search condition created by performing an AND operation on the key object 106 currently included in the search key box object 108 is already stored in the object information database 78, the search unit 60 proceeds to step S14. You may skip without executing. Further, the search key box object 108 is displayed in a predetermined color (for example, red) so that it can be visually and intuitively understood that the logical operation currently set in the search key box object 108 is an AND operation. You may make it do.

検索部60は、ステップS12で検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算ではない(No)と判定したら、ステップS16として、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にOR演算を実行し、検索条件を作成する。なお、作成された検索条件をオブジェクト情報データベース78(図2参照)に記憶しておくようにしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106が1つの場合には、検索部60は、ステップS16を実行せずにスキップしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にOR演算を実行して作成された検索条件が既にオブジェクト情報データベース78に記憶されている場合には、検索部60は、ステップS16を実行せずにスキップしても良い。さらに、検索キーボックスオブジェクト108に現在設定されている論理演算がOR演算であることが視覚的、直感的に把握できるように、検索キーボックスオブジェクト108を所定の色(例えば、黄色等)で表示するようにしても良い。   If it is determined in step S12 that the logical operation currently set in the search key box object 108 is not an AND operation (No), the search unit 60 determines in step S16 the key object currently included in the search key box object 108. An OR operation is performed on 106 to create a search condition. The created search condition may be stored in the object information database 78 (see FIG. 2). When the search key box object 108 includes one key object 106, the search unit 60 may skip without executing step S16. If the search condition created by performing an OR operation on the key object 106 currently included in the search key box object 108 is already stored in the object information database 78, the search unit 60 proceeds to step S16. You may skip without executing. Further, the search key box object 108 is displayed in a predetermined color (for example, yellow) so that it can be visually and intuitively understood that the logical operation currently set in the search key box object 108 is an OR operation. You may make it do.

次に、図5−1から図5−4を用いて、具体的な操作例の一例を説明する。ここで、図5−1から図5−4は、検索キーボックスオブジェクト108にキーオブジェクト106を追加する(含ませる)操作が行われた場合の携帯電子通信機器の動作を説明するための説明図である。なお、図5−1から図5−4は、画面表示の一例を示している。また、図5−1から図5−4に示す説明図では、1つの検索キーボックスオブジェクト108と、3つのキーオブジェクト106のみを示し、他のグループオブジェクト及びそれに含まれる項目オブジェクト、キーオブジェクト、検索キーボックスオブジェクトの図示は省略している。また、検索キーボックスオブジェクト108には、論理演算としてAND演算が設定されており、キーオブジェクトが1つも含まれていないものとする。   Next, an example of a specific operation example will be described with reference to FIGS. FIGS. 5A to 5D are explanatory diagrams for explaining the operation of the portable electronic communication device when an operation of adding (including) the key object 106 to the search key box object 108 is performed. It is. FIGS. 5A to 5D show examples of screen display. Further, in the explanatory diagrams shown in FIGS. 5A to 5D, only one search key box object 108 and three key objects 106 are shown, and other group objects and item objects, key objects, and search included therein are included. Illustration of the key box object is omitted. The search key box object 108 is set with an AND operation as a logical operation, and does not include any key object.

まず、図5−1に示すように、操作者により「Aさん」というキーオブジェクト106が移動され、図5−2に示すように、「Aさん」というキーオブジェクト106が検索キーボックスオブジェクト108の表示領域内となると、「Aさん」というキーオブジェクト106が検索キーボックスオブジェクト108に含まれる。   First, as shown in FIG. 5A, the key object 106 “Mr. A” is moved by the operator, and as shown in FIG. 5B, the key object 106 “Mr. A” is moved to the search key box object 108. When in the display area, the key object 106 “Mr. A” is included in the search key box object 108.

次に、図5−3に示すように、操作者により「一人」というキーオブジェクト106が移動され、「一人」というキーオブジェクト106が検索キーボックスオブジェクト108の表示領域内となると、「一人」というキーオブジェクト106が検索キーボックスオブジェクト108に含まれる。すると、検索部60は、「Aさん」というキーオブジェクト106と「一人」というキーオブジェクト106とにAND演算を実行し、検索条件を作成する。   Next, as shown in FIG. 5C, when the key object 106 “one person” is moved by the operator and the key object 106 “one person” is within the display area of the search key box object 108, it is called “one person”. The key object 106 is included in the search key box object 108. Then, the search unit 60 performs an AND operation on the key object 106 “Mr. A” and the key object 106 “one person” to create a search condition.

更に、図5−4に示すように、操作者により「320×240」(画像サイズ)というキーオブジェクト106が移動され、「320×240」というキーオブジェクト106が検索キーボックスオブジェクト108の表示領域内となると、「320×240」というキーオブジェクト106が検索キーボックスオブジェクト108に含まれる。すると、検索部60は、「Aさん」というキーオブジェクト106と「一人」というキーオブジェクト106と「320×240」というキーオブジェクト106とにAND演算を実行し、検索条件を作成する。   Further, as shown in FIG. 5-4, the key object 106 “320 × 240” (image size) is moved by the operator, and the key object 106 “320 × 240” is moved within the display area of the search key box object 108. Then, the key object 106 “320 × 240” is included in the search key box object 108. Then, the search unit 60 performs an AND operation on the key object 106 “Mr. A”, the key object 106 “one person”, and the key object 106 “320 × 240” to create a search condition.

図6は、検索キーボックスオブジェクト108に設定されている論理演算を変更する場合の携帯電子通信機器の処理動作の一例を示すフロー図である。   FIG. 6 is a flowchart showing an example of the processing operation of the portable electronic communication device when the logical operation set in the search key box object 108 is changed.

なお、ここでは、便宜のため、論理演算として、AND演算及びOR演算を用いるものとして説明するが、先に説明したように他の論理演算(例えば、NAND演算、NOR演算、XOR演算等)をも用いるようにしても良い。つまり、理論演算に用いる演算式としては、種々の演算式を用いることができる。   Here, for the sake of convenience, the description will be made assuming that an AND operation and an OR operation are used as the logical operation. However, as described above, other logical operations (for example, NAND operation, NOR operation, XOR operation, etc.) May also be used. That is, various arithmetic expressions can be used as arithmetic expressions used for the theoretical calculation.

まず、検索部60は、ステップS20として、検索キーボックスオブジェクト108がシングルタップされたかを判定する。   First, the search part 60 determines whether the search key box object 108 was single-tapped as step S20.

検索部60は、ステップS20で検索キーボックスオブジェクト108がシングルタップされた(Yes)と判定したら、ステップS22として、検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算であるかを判定する。   If it is determined in step S20 that the search key box object 108 has been single-tapped (Yes), the search unit 60 determines in step S22 whether the logical operation currently set in the search key box object 108 is an AND operation. To do.

検索部60は、ステップS22で検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算ではない(No)と判定したら、ステップS24として、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にAND演算を実行し、検索条件を作成する。なお、作成された検索条件をオブジェクト情報データベース78(図2参照)に記憶しておくようにしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106が1つの場合には、検索部60は、ステップS24を実行せずにスキップしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にAND演算を実行して作成された検索条件が既にオブジェクト情報データベース78に記憶されている場合には、検索部60は、ステップS24を実行せずにスキップしても良い。更に、検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算であることが視覚的、直感的に把握できるように、検索キーボックスオブジェクト108を所定の色(例えば、赤等)で表示するようにしても良い。   If it is determined in step S22 that the logical operation currently set in the search key box object 108 is not an AND operation (No), the search unit 60 determines in step S24 the key object currently included in the search key box object 108. An AND operation is performed on 106 to create a search condition. The created search condition may be stored in the object information database 78 (see FIG. 2). Further, when the search key box object 108 includes one key object 106, the search unit 60 may skip without executing step S24. If the search condition created by performing the AND operation on the key object 106 currently included in the search key box object 108 is already stored in the object information database 78, the search unit 60 proceeds to step S24. You may skip without executing. Further, the search key box object 108 is displayed in a predetermined color (for example, red) so that it can be visually and intuitively understood that the logical operation currently set in the search key box object 108 is an AND operation. You may make it do.

検索部60は、ステップS22で検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算である(Yes)と判定したら、ステップS26として、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にOR演算を実行し、検索条件を作成する。なお、作成された検索条件をオブジェクト情報データベース78(図2参照)に記憶しておくようにしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106が1つの場合には、検索部60は、ステップS26を実行せずにスキップしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にOR演算を実行して作成された検索条件が既にオブジェクト情報データベース78に記憶されている場合には、検索部60は、ステップS26を実行せずにスキップしても良い。更に、検索キーボックスオブジェクト108に現在設定されている論理演算がOR演算であることが視覚的、直感的に把握できるように、検索キーボックスオブジェクト108を所定の色(例えば、黄色等)で表示するようにしても良い。   If the search unit 60 determines in step S22 that the logical operation currently set in the search key box object 108 is an AND operation (Yes), the key object currently included in the search key box object 108 is determined in step S26. An OR operation is performed on 106 to create a search condition. The created search condition may be stored in the object information database 78 (see FIG. 2). When the search key box object 108 includes one key object 106, the search unit 60 may skip without executing step S26. If the search condition created by performing the OR operation on the key object 106 currently included in the search key box object 108 is already stored in the object information database 78, the search unit 60 proceeds to step S26. You may skip without executing. Further, the search key box object 108 is displayed in a predetermined color (for example, yellow) so that it can be visually and intuitively understood that the logical operation currently set in the search key box object 108 is an OR operation. You may make it do.

次に、図7−1から図7−4を用いて、具体的な操作例の一例を説明する。ここで、図7−1から図7−4は、検索キーボックスオブジェクト108に設定されている論理演算を変更する操作が行われた場合の携帯電子通信機器の動作を説明するための説明図である。なお、図7−1から図7−4は、画面表示の一例を示している。また、図7−1から図7−4に示す説明図では、1つの検索キーボックスオブジェクト108のみを示し、他のグループオブジェクト及びそれに含まれる項目オブジェクト、キーオブジェクト、検索キーボックスオブジェクトの図示は省略している。また、検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算であるものとし、検索キーボックスオブジェクト108は赤で表示されているものとする。   Next, an example of a specific operation example will be described with reference to FIGS. 7A to 7D are explanatory diagrams for explaining the operation of the portable electronic communication device when an operation for changing the logical operation set in the search key box object 108 is performed. is there. FIGS. 7A to 7D show examples of screen display. In the explanatory diagrams shown in FIGS. 7A to 7D, only one search key box object 108 is shown, and other group objects, item objects included therein, key objects, and search key box objects are not shown. is doing. It is assumed that the logical operation currently set in the search key box object 108 is an AND operation, and the search key box object 108 is displayed in red.

まず、図7−1に示すように、操作者により検索キーボックスオブジェクト108がシングルタップされると、ここでは検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算であるので、検索部60は、検索キーボックスオブジェクト108に論理演算としてOR演算を設定し、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にOR演算を実行し、検索条件を作成する。なお、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にOR演算を実行して作成された検索条件が既にオブジェクト情報データベース78に記憶されている場合には、検索部60は、OR演算を実行しなくても良い。また、図7−2に示すように、検索部60は、検索キーボックスオブジェクト108に現在設定されている論理演算がOR演算であることが視覚的、直感的に把握できるように、検索キーボックスオブジェクト108を所定の色(例えば、黄色)で表示する。   First, as shown in FIG. 7A, when the search key box object 108 is single-tapped by the operator, the logical operation currently set in the search key box object 108 is an AND operation. 60 sets an OR operation as a logical operation in the search key box object 108, executes an OR operation on the key object 106 currently included in the search key box object 108, and creates a search condition. If the search condition created by performing the OR operation on the key object 106 currently included in the search key box object 108 is already stored in the object information database 78, the search unit 60 performs the OR operation. It is not necessary to execute. Further, as shown in FIG. 7B, the search unit 60 can search the search key box so that it can be visually and intuitively understood that the logical operation currently set in the search key box object 108 is an OR operation. The object 108 is displayed in a predetermined color (for example, yellow).

次に、図7−3に示すように、操作者により検索キーボックスオブジェクト108がシングルタップされると、ここでは検索キーボックスオブジェクト108に現在設定されている論理演算がOR演算であるので、検索部60は、検索キーボックスオブジェクト108に論理演算としてAND演算を設定し、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にAND演算を実行し、検索条件を作成する。なお、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にAND演算を実行して作成された検索条件が既にオブジェクト情報データベース78に記憶されている場合には、検索部60は、AND演算を実行しなくても良い。また、図7−4に示すように、検索部60は、検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算であることが視覚的、直感的に把握できるように、検索キーボックスオブジェクト108を所定の色(例えば、赤)で表示する。   Next, as shown in FIG. 7C, when the search key box object 108 is single-tapped by the operator, the logical operation currently set in the search key box object 108 is an OR operation. The unit 60 sets an AND operation as a logical operation in the search key box object 108, performs an AND operation on the key object 106 currently included in the search key box object 108, and creates a search condition. If the search condition created by performing the AND operation on the key object 106 currently included in the search key box object 108 is already stored in the object information database 78, the search unit 60 performs the AND operation. It is not necessary to execute. Also, as shown in FIG. 7-4, the search unit 60 allows the search key box to visually and intuitively understand that the logical operation currently set in the search key box object 108 is an AND operation. The object 108 is displayed in a predetermined color (for example, red).

なお、ここでは、論理演算に用いる演算式として、AND演算及びOR演算を用いた場合について説明したが、先に説明したように他の論理演算(例えば、NAND演算、NOR演算、XOR演算等)をも用い、演算式を切り替えるようにしても良い。例えば、検索キーボックスオブジェクト108がシングルタップされる都度、検索キーボックスオブジェクト108に設定される論理演算が、AND演算→OR演算→NAND演算→NOR演算→XOR演算→・・・と変化するようにしても良い。また、検索キーボックスオブジェクト108がタップされた回数(ダブルタップ、トリプルタップ等)に応じて、検索キーボックスオブジェクト108に設定される論理演算が変化するようにしても良い。   Here, the case where the AND operation and the OR operation are used as the arithmetic expression used for the logical operation has been described. However, as described above, other logical operations (for example, NAND operation, NOR operation, XOR operation, etc.) May be used to switch the arithmetic expression. For example, each time the search key box object 108 is single-tapped, the logical operation set in the search key box object 108 is changed as AND operation → OR operation → NAND operation → NOR operation → XOR operation →. May be. Further, the logical operation set in the search key box object 108 may be changed according to the number of times the search key box object 108 is tapped (double tap, triple tap, etc.).

図8は、検索キーボックスオブジェクト108に含まれているキーオブジェクトを除く(含まれないようにする)場合の携帯電子通信機器の処理動作の一例を示すフロー図である。   FIG. 8 is a flowchart showing an example of the processing operation of the portable electronic communication device when the key object included in the search key box object 108 is excluded (not included).

まず、検索部60は、ステップS30として、検索キーボックスオブジェクト108がタッチされて静止した状態(タップアンドホールド)で所定の時間が経過したかを判定する。検索部60は、ステップS30で検索キーボックスオブジェクト108がタッチされて静止した状態で所定の時間が経過していない(No)と判定したら、処理を終了する。   First, in step S30, the search unit 60 determines whether a predetermined time has elapsed with the search key box object 108 being touched and stationary (tap and hold). If the search unit 60 determines in step S30 that the search key box object 108 has been touched and is stationary and the predetermined time has not elapsed (No), the search unit 60 ends the processing.

検索部60は、ステップS30で検索キーボックスオブジェクト108がタッチされて静止した状態で所定の時間が経過した(Yes)と判定したら、ステップS32として、検索キーボックスオブジェクト108に含まれているキーオブジェクトのリストを表示する。なお、この状態でタッチを解除しても、リスト表示を終了する条件になるまではリスト表示は終了しない。   If the search unit 60 determines in step S30 that the search key box object 108 has been touched and is stationary and a predetermined time has passed (Yes), the search object 60 includes the key objects included in the search key box object 108 as step S32. Display a list of Even if the touch is released in this state, the list display is not ended until the condition for ending the list display is satisfied.

検索部60は、ステップS34として、検索キーボックスオブジェクト108とリスト表示されたキーオブジェクト以外の場所が選択(タッチ)されたか否かを判定する。検索部60は、ステップS34で検索キーボックスオブジェクト108とリスト表示されたキーオブジェクト以外の場所が選択された(Yes)と判定したら、処理を終了する。   In step S <b> 34, the search unit 60 determines whether a place other than the search key box object 108 and the key objects listed is selected (touched). If the search unit 60 determines in step S34 that a place other than the search key box object 108 and the key object listed in the list has been selected (Yes), the search unit 60 ends the process.

検索部60は、ステップS34で検索キーボックスオブジェクト108とリスト表示されたキーオブジェクト以外の場所が選択(タッチ)されていない(No)と判定したら、ステップS36として、キーオブジェクトがドラッグされリスト表示領域外に移動されたか否かを判定する。検索部60は、ステップS36でキーオブジェクトがドラッグされリスト表示領域外に移動されていない(No)と判定したら、処理を終了する。   If the search unit 60 determines in step S34 that a location other than the search key box object 108 and the key object listed in the list has not been selected (touched) (No), in step S36, the key object is dragged and the list display area is displayed. It is determined whether or not it has been moved outside. If it is determined in step S36 that the key object has been dragged and has not been moved outside the list display area (No), the search unit 60 ends the process.

検索部60は、ステップS36でキーオブジェクトがドラッグされリスト表示領域外に移動された(Yes)と判定したら、ステップS38として、ドラッグされリスト表示領域外に移動されたキーオブジェクトを検索キーボックスオブジェクト108から除き(含まれないようにし)、さらに、検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算であるかを判定する。   If it is determined in step S36 that the key object has been dragged and moved out of the list display area (Yes), the search unit 60 searches for the key object that has been dragged and moved out of the list display area in step S38. In addition, it is determined whether or not the logical operation currently set in the search key box object 108 is an AND operation.

検索部60は、ステップS38で検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算である(Yes)と判定したら、ステップS40として、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にAND演算を実行し、検索条件を作成する。なお、作成された検索条件をオブジェクト情報データベース78(図2参照)に記憶しておくようにしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106が1つの場合には、検索部60は、ステップS40を実行せずにスキップしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にAND演算を実行して作成された検索条件が既にオブジェクト情報データベース78に記憶されている場合には、検索部60は、ステップS40を実行せずにスキップしても良い。   If the search unit 60 determines in step S38 that the logical operation currently set in the search key box object 108 is an AND operation (Yes), the key object currently included in the search key box object 108 is determined in step S40. An AND operation is performed on 106 to create a search condition. The created search condition may be stored in the object information database 78 (see FIG. 2). When the search key box object 108 includes one key object 106, the search unit 60 may skip without executing step S40. If the search condition created by performing the AND operation on the key object 106 currently included in the search key box object 108 is already stored in the object information database 78, the search unit 60 proceeds to step S40. You may skip without executing.

検索部60は、ステップS38で検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算ではない(No)と判定したら、ステップS42として、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にOR演算を実行し、検索条件を作成する。なお、作成された検索条件をオブジェクト情報データベース78(図2参照)に記憶しておくようにしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106が1つの場合には、検索部60は、ステップS42を実行せずにスキップしても良い。また、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にOR演算を実行して作成された検索条件が既にオブジェクト情報データベース78に記憶されている場合には、検索部60は、ステップS42を実行せずにスキップしても良い。さらに、検索キーボックスオブジェクト108に現在設定されている論理演算がOR演算であることが視覚的、直感的に把握できるように、検索キーボックスオブジェクト108を所定の色(例えば、黄色等)で表示するようにしても良い。   If it is determined in step S38 that the logical operation currently set in the search key box object 108 is not an AND operation (No), the search unit 60 determines in step S42 the key object currently included in the search key box object 108. An OR operation is performed on 106 to create a search condition. The created search condition may be stored in the object information database 78 (see FIG. 2). If the search key box object 108 includes one key object 106, the search unit 60 may skip without executing step S42. If the search condition created by performing the OR operation on the key object 106 currently included in the search key box object 108 is already stored in the object information database 78, the search unit 60 proceeds to step S42. You may skip without executing. Further, the search key box object 108 is displayed in a predetermined color (for example, yellow) so that it can be visually and intuitively understood that the logical operation currently set in the search key box object 108 is an OR operation. You may make it do.

なお、検索部60は、ステップS34からステップS42までの処理を、検索キーボックスオブジェクト108とキーオブジェクト106のリストの選択状態が解除された状態で所定の時間が経過するまで、繰り返し行う。   Note that the search unit 60 repeats the processing from step S34 to step S42 until a predetermined time elapses in a state where the selection state of the search key box object 108 and the list of the key object 106 is released.

次に、図9−1から図9−4を用いて、具体的な操作例の一例を説明する。ここで、図9−1から図9−4は、検索キーボックスオブジェクト108に含まれているキーオブジェクトを除く(含まれないようにする)操作が行われた場合の携帯電子通信機器の動作を説明するための説明図である。なお、図9−1から図9−4は、画面表示の一例を示している。また、図9−1から図9−4に示す説明図では、1つの検索キーボックスオブジェクト108のみを示し、他のグループオブジェクト及びそれに含まれる項目オブジェクト、キーオブジェクト、検索キーボックスオブジェクトの図示は省略している。また、検索キーボックスオブジェクト108に現在設定されている論理演算がAND演算であるものとし、検索キーボックスオブジェクト108は所定の色(例えば、赤)で表示されているものとする。   Next, an example of a specific operation example will be described with reference to FIGS. Here, FIGS. 9-1 to 9-4 illustrate the operation of the portable electronic communication device when an operation is performed to exclude (make sure that the key object included in the search key box object 108 is not included). It is explanatory drawing for demonstrating. FIGS. 9-1 to 9-4 show examples of screen display. Also, in the explanatory diagrams shown in FIGS. 9-1 to 9-4, only one search key box object 108 is shown, and the other group objects and the item objects, key objects, and search key box objects included therein are not shown. is doing. It is assumed that the logical operation currently set in the search key box object 108 is an AND operation, and the search key box object 108 is displayed in a predetermined color (for example, red).

まず、図9−1に示すように、操作者により検索キーボックスオブジェクト108がタッチされて静止した状態(タップアンドホールド)で所定の時間が経過すると、図9−2に示すように、検索キーボックスオブジェクト108の近傍にリストボックス110が表示される。そして、リストボックス110内に、検索キーボックスオブジェクト108に含まれているキーオブジェクト106がリスト表示される。図9−2では、「Aさん」というキーオブジェクト106、「一人」というキーオブジェクト106、「320×240」というキーオブジェクト106の3つのキーオブジェクトがリストボックス110内に表示されている。   First, as shown in FIG. 9A, when a predetermined time elapses when the search key box object 108 is touched by the operator and is stationary (tap and hold), as shown in FIG. A list box 110 is displayed in the vicinity of the box object 108. Then, a list of key objects 106 included in the search key box object 108 is displayed in the list box 110. In FIG. 9B, three key objects are displayed in the list box 110: a key object 106 “Mr. A”, a key object 106 “one person”, and a key object 106 “320 × 240”.

次に、図9−3に示すように、操作者により「320×240」というキーオブジェクト106がドラッグされリストボックス110外に移動されると、検索部60は、検索キーボックスオブジェクト108から「320×240」というキーオブジェクト106を除き(含まれないようにし)、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にAND演算を実行し、検索条件を作成する。なお、検索キーボックスオブジェクト108に現在含まれているキーオブジェクト106にAND演算を実行して作成された検索条件が既にオブジェクト情報データベース78に記憶されている場合には、検索部60は、AND演算を実行しなくても良い。   Next, as illustrated in FIG. 9C, when the key object 106 “320 × 240” is dragged and moved out of the list box 110 by the operator, the search unit 60 starts from the search key box object 108 to “320”. Except for the key object 106 of “× 240” (so as not to be included), an AND operation is performed on the key object 106 currently included in the search key box object 108 to create a search condition. If the search condition created by performing the AND operation on the key object 106 currently included in the search key box object 108 is already stored in the object information database 78, the search unit 60 performs the AND operation. It is not necessary to execute.

次に、検索キーボックスオブジェクト108とキーオブジェクト106のリストの選択状態が解除された状態で所定の時間が経過したり、或いは、図9−4に示すように、操作者により検索キーボックスオブジェクト108とリストボックス110以外の場所がタッチされたりすると、検索部60は、リストボックス110を消去する(リストボックス110の表示を終了する)。   Next, a predetermined time elapses when the selection state of the search key box object 108 and the list of the key object 106 is released, or as shown in FIG. 9-4, the operator searches the search key box object 108. When a place other than the list box 110 is touched, the search unit 60 deletes the list box 110 (ends the display of the list box 110).

なお、例えば、図5−1から図5−4、図9−1から図9−4において、操作者が検索キーボックスオブジェクト108もしくはリストボックス110をダブルタップしたら、検索キーボックスオブジェクト108の状態を1つ前の状態に戻す(例えば、キーオブジェクトを追加した場合には追加を取り消し、キーオブジェクトを削除した場合には削除を取り消す等)ようにしても良い。   For example, when the operator double taps the search key box object 108 or the list box 110 in FIGS. 5-1 to 5-4 and FIGS. 9-1 to 9-4, the state of the search key box object 108 is changed. It is also possible to return to the previous state (for example, when a key object is added, the addition is canceled, and when the key object is deleted, the deletion is canceled).

次に、図10から図18を用いて携帯電子通信機器10の動作、具体的には、絞り込み検索の検索方法およびそれに伴う画像表示方法ついて説明する。ここで、図10は、携帯電子通信機器の処理動作の一例を示すフロー図である。   Next, the operation of the mobile electronic communication device 10, specifically, the search method for the narrow search and the image display method associated therewith will be described with reference to FIGS. 10 to 18. Here, FIG. 10 is a flowchart showing an example of the processing operation of the portable electronic communication device.

まず、図2に示す各ソフトウェアが起動されている場合は、画面上には、図3に示すように、複数の項目オブジェクトを有するグループオブジェクトと、複数のキーオブジェクトと、複数の検索キーボックスオブジェクトが表示デバイス32に表示されている。このように、複数の項目オブジェクトを有するグループオブジェクトと、複数のキーオブジェクトと、複数の検索キーボックスオブジェクトが表示されている場合に、所定の操作が行われた場合に絞り込み検索が行われる。なお、キーオブジェクトは、AモードキーオブジェクトとBモードキーオブジェクトの2種類のキーオブジェクトがそれぞれ複数個ずつ表示されている。同様に、検索キーボックスオブジェクトは、Aモード検索キーボックスオブジェクトとBモード検索キーボックスオブジェクトの2種類のキーオブジェクトが表示されている。なお、AモードとBモードとは、キーオブジェクト及び検索キーボックスオブジェクトの操作に基づいて決定される抽出する項目オブジェクトの適合率の範囲(閾値)を異なる方法で求めている点が異なる。そのため、AモードキーオブジェクトとBモードキーオブジェクトでは、絞り込みを行う検索条件(キーワード、基準値、基準条件)が同一のものもある。同様に、Aモード検索キーボックスオブジェクトとBモード検索キーボックスオブジェクトでは、絞り込みを行う検索条件(キーワード、基準値、基準条件)が同一のものもある。以降、AモードキーオブジェクトとAモード検索キーボックスオブジェクトをAモードオブジェクトと総称する場合があり、BモードキーオブジェクトとBモード検索キーボックスオブジェクトをBモードオブジェクトと総称する場合がある。   First, when each software shown in FIG. 2 is activated, a group object having a plurality of item objects, a plurality of key objects, and a plurality of search key box objects are displayed on the screen as shown in FIG. Is displayed on the display device 32. As described above, when a group object having a plurality of item objects, a plurality of key objects, and a plurality of search key box objects are displayed, a narrow search is performed when a predetermined operation is performed. Note that a plurality of two types of key objects, A mode key object and B mode key object, are displayed as key objects. Similarly, as the search key box object, two types of key objects, an A mode search key box object and a B mode search key box object, are displayed. Note that the A mode and the B mode are different in that the range (threshold value) of the matching rate of the item object to be extracted, which is determined based on the operation of the key object and the search key box object, is obtained by different methods. For this reason, the A-mode key object and the B-mode key object may have the same search condition (keyword, reference value, reference condition) for narrowing down. Similarly, some A-mode search key box objects and B-mode search key box objects have the same search conditions (keywords, reference values, reference conditions) for narrowing down. Hereinafter, the A mode key object and the A mode search key box object may be collectively referred to as an A mode object, and the B mode key object and the B mode search key box object may be collectively referred to as a B mode object.

検索部60は、ステップS112として、タッチ操作されたかを判定する。つまり、入力デバイス34が、操作者による操作を検出し、その信号が入力部64を介してオブジェクト操作部74に入力されたかを判定する。検索部60は、ステップS112でタッチ操作がされていない(No)と判定したら、処理を終了する。   In step S112, the search unit 60 determines whether a touch operation has been performed. That is, the input device 34 detects an operation by the operator, and determines whether the signal is input to the object operation unit 74 via the input unit 64. If it is determined in step S112 that the touch operation has not been performed (No), the search unit 60 ends the process.

検索部60は、ステップS112でタッチ操作された(Yes)と判定したら、ステップS114として、タッチ座標がオブジェクト領域内かを判定する。つまり、操作者により接触した位置がオブジェクトに対応する領域であるかを判定する。ここで、表示デバイス32の画面に表示されているオブジェクトは、表示デバイス32の画面表示に対応する入力デバイス34の領域がオブジェクト領域として設定されている。検索部60は、タッチ座標がオブジェクト領域内である(Yes)と判定したら、ステップS116に進み、オブジェクト領域内ではない(No)と判定したら、処理を終了する。つまり、検索部60は、タッチ座標がオブジェクト領域内である場合は、そのオブジェクトを操作する指示が入力されたと判定し、オブジェクトの操作に移行する。   If it is determined that the touch operation has been performed (Yes) in Step S112, the search unit 60 determines whether the touch coordinates are within the object region as Step S114. That is, it is determined whether the position touched by the operator is an area corresponding to the object. Here, for the object displayed on the screen of the display device 32, the area of the input device 34 corresponding to the screen display of the display device 32 is set as the object area. If it is determined that the touch coordinates are within the object area (Yes), the search unit 60 proceeds to step S116, and if it is determined that the touch coordinates are not within the object area (No), the search unit 60 ends the process. That is, when the touch coordinates are within the object area, the search unit 60 determines that an instruction to operate the object has been input, and shifts to the operation of the object.

検索部60は、ステップS114でYesと判定したら、ステップS116として、タッチ座標がグループオブジェクトの領域内であるかを判定する。つまり、操作の対象として、グループオブジェクトが指定されたか否かを判定する。検索部60は、ステップS116で、タッチ座標がグループオブジェクトの領域内である(Yes)、つまり、グループオブジェクトが操作対象であると判定したら、ステップS118として、オブジェクト移動モードに移行する。ここで、オブジェクト移動モードとは、操作者がグループオブジェクトを指定した状態から、入力デバイス34の接触している位置を移動させたら、つまり、タッチ座標を変化させたら、その変化に応じて、グループオブジェクトの位置を移動させるモードである。また、オブジェクト移動モードでは、タッチ操作が終了したら、つまり、操作者が入力デバイス34にタッチしていない状態となったら、グループオブジェクトの移動が終了したと判定して、タッチ操作が終了した位置をグループオブジェクトとして設定して、処理を終了する。   If it is determined Yes in step S114, the search unit 60 determines whether the touch coordinates are within the group object region as step S116. That is, it is determined whether or not a group object is designated as an operation target. If it is determined in step S116 that the touch coordinates are within the area of the group object (Yes), that is, the group object is the operation target, the search unit 60 proceeds to the object movement mode in step S118. Here, the object movement mode means that when the operator moves the position in contact with the input device 34 from the state in which the group object is designated, that is, when the touch coordinates are changed, the group moves according to the change. In this mode, the position of the object is moved. In the object movement mode, when the touch operation is finished, that is, when the operator does not touch the input device 34, it is determined that the movement of the group object is finished, and the position where the touch operation is finished is determined. Set as a group object and end the process.

また、検索部60は、ステップS116で、タッチ座標がグループオブジェクトの領域内ではない(No)、つまり、グループオブジェクトが操作対象ではないと判定したら、ステップS120として、タッチ座標がAモードオブジェクトの領域内であるかを判定する。つまり、操作の対象として、Aモードオブジェクトが指定されたか否かを判定する。検索部60は、ステップS120で、タッチ座標がAモードオブジェクトの領域内である(Yes)と判定したら、ステップS122として、オブジェクト吸着Aモードに移行する。なお、オブジェクト吸着Aモードについては、図10に示すフロー図の説明が終了した後、説明する。検索部60は、ステップS122でのオブジェクト吸着Aモードの処理が終了したら、処理を終了する。   If the search unit 60 determines in step S116 that the touch coordinates are not within the area of the group object (No), that is, if the group object is not an operation target, the search coordinates in step S120 indicate that the touch coordinates are in the area of the A mode object. It is determined whether it is within. That is, it is determined whether or not an A mode object is designated as an operation target. If it is determined in step S120 that the touch coordinates are within the area of the A mode object (Yes), the search unit 60 proceeds to the object adsorption A mode in step S122. The object adsorption A mode will be described after the description of the flowchart shown in FIG. 10 is completed. The search unit 60 ends the process when the object adsorption A mode process in step S122 ends.

次に、ステップS120で、タッチ座標がAモードオブジェクトの領域内ではない(No)、つまり、Aモードオブジェクトが操作対象ではないと判定したら、ステップS124として、タッチ座標がBモードオブジェクトの領域内であるかを判定する。つまり、操作の対象として、Bモードオブジェクトが指定されたか否かを判定する。検索部60は、ステップS124で、タッチ座標がBモードオブジェクトの領域内である(Yes)と判定したら、ステップS126として、オブジェクト吸着Bモードに移行する。なお、オブジェクト吸着Bモードについては、後ほど説明する。検索部60は、ステップS126でのオブジェクト吸着Bモードの処理が終了したら、処理を終了する。   Next, if it is determined in step S120 that the touch coordinates are not within the area of the A mode object (No), that is, if the A mode object is not an operation target, the touch coordinates are within the area of the B mode object as step S124. Determine if there is. That is, it is determined whether or not a B-mode object is designated as an operation target. If it is determined in step S124 that the touch coordinates are within the region of the B mode object (Yes), the search unit 60 proceeds to the object adsorption B mode in step S126. The object adsorption B mode will be described later. When the object adsorption B mode process in step S126 ends, the search unit 60 ends the process.

検索部60は、ステップS124で、タッチ座標がBモードオブジェクトの領域内ではない(No)、つまり、Bモードオブジェクトが操作対象ではないと判定したら、処理を終了する。なお、検索部60は、ステップS114から処理終了(エンド)の前までの処理を項目オブジェクトの個数に対応する回数分、繰り返し行う。つまり、グループオブジェクトに含まれる項目オブジェクトの数の分だけ、上記判定を繰り返し、グループオブジェクトの操作や、キーオブジェクトの操作に対応させて、各項目オブジェクトも操作する。具体的には、グループオブジェクトが移動されたら、その移動に応じて、グループオブジェクトに含まれる各項目オブジェクトも移動させる。検索部60は、このように制御を行うことで、操作者によりタッチされた項目オブジェクトに応じて操作を行うことができる。   If the search unit 60 determines in step S124 that the touch coordinates are not within the region of the B-mode object (No), that is, the B-mode object is not an operation target, the search unit 60 ends the processing. Note that the search unit 60 repeatedly performs the processes from step S114 to before the end of the process for the number of times corresponding to the number of item objects. That is, the above determination is repeated as many times as the number of item objects included in the group object, and each item object is also operated in correspondence with the operation of the group object and the operation of the key object. Specifically, when the group object is moved, each item object included in the group object is also moved according to the movement. By performing the control in this way, the search unit 60 can perform an operation according to the item object touched by the operator.

また、検索部60は、画面上にグループオブジェクトが複数ある場合はそれぞれのグループオブジェクトに対してステップS116の判定を行い、Aモードオブジェクトが複数ある場合はそれぞれのAモードオブジェクトに対してステップS120の判定を行い、Bモードオブジェクトが複数ある場合はそれぞれのBモードオブジェクトに対してステップS124の判定を行う。   In addition, when there are a plurality of group objects on the screen, the search unit 60 performs the determination of step S116 for each group object, and when there are a plurality of A mode objects, the search unit 60 performs the process of step S120 for each A mode object. If there are a plurality of B mode objects, the determination in step S124 is performed for each B mode object.

次に、図11、図12−1から図12−4を用いて、オブジェクト吸着Aモードについて説明する。図11は、オブジェクト吸着Aモードに移行した場合の携帯電子通信機器の処理動作の一例を示すフロー図である。ここで、オブジェクト吸着Aモードとは、Aモードオブジェクトとグループオブジェクトとの距離に応じて、グループオブジェクトの中から抽出する項目オブジェクトの適合率の範囲を変動させるモードである。つまり、Aモードオブジェクトとグループオブジェクトとの距離に応じて、Aモードオブジェクトに吸着させる項目オブジェクトの適合率の閾値を変動させるモードである。具体的には、Aモードオブジェクトとグループオブジェクトとの距離が近いほど、抽出する項目オブジェクトの適合率の範囲を広くし、適合率の低い項目オブジェクトも抽出し、Aモードオブジェクトとグループオブジェクトとの距離が遠いほど、抽出する項目オブジェクトの適合率の範囲を狭くし、適合率の高い項目オブジェクトのみ抽出する。なお、本実施形態では、適合率の高い項目オブジェクトから順に抽出する設定となっているため、適合率の範囲が広くなると、適合率がより低い項目オブジェクトも抽出することになる。   Next, the object adsorption A mode will be described with reference to FIGS. 11 and 12-1 to 12-4. FIG. 11 is a flowchart showing an example of the processing operation of the portable electronic communication device when the mode is shifted to the object adsorption A mode. Here, the object adsorption A mode is a mode in which the range of the relevance ratio of the item object extracted from the group object is changed according to the distance between the A mode object and the group object. That is, in this mode, the threshold value of the matching rate of the item object to be attracted to the A mode object is changed according to the distance between the A mode object and the group object. Specifically, the closer the distance between the A-mode object and the group object, the wider the range of the matching rate of the item object to be extracted, and also extract the item objects with a low matching rate, and the distance between the A-mode object and the group object The farther is, the narrower the range of the matching rate of the item object to be extracted, and only the item objects having a high matching rate are extracted. In the present embodiment, since the setting is such that item objects with a high relevance rate are extracted in order, when the range of the relevance rate is wide, item objects with a lower relevance rate are also extracted.

まず、検索部60は、ステップS122(図10参照)で、オブジェクト吸着Aモードに移行したら、ステップS130として、Aモードオブジェクトと対象グループオブジェクトとの距離を算出する。ここで、Aモードオブジェクトは、操作者により移動しているため、Aモードオブジェクトの位置は、ステップS130での計算時に検出されるAモードオブジェクトの位置となる。また、グループオブジェクトの基準とする位置は、グループオブジェクトの領域の予め設定してある位置であり、例えば、領域の中心や、領域の端部である。さらに対象グループオブジェクトとは、絞り込み検索を行う対象となるグループオブジェクトである。   First, when the search unit 60 shifts to the object adsorption A mode in step S122 (see FIG. 10), in step S130, the search unit 60 calculates the distance between the A mode object and the target group object. Here, since the A mode object has been moved by the operator, the position of the A mode object is the position of the A mode object detected during the calculation in step S130. The reference position of the group object is a preset position of the area of the group object, for example, the center of the area or the end of the area. Furthermore, the target group object is a group object to be subjected to a narrowing search.

検索部60は、ステップS130で距離を算出したら、ステップS132として、オブジェクト間(Aモードオブジェクトとグループオブジェクトと)の距離がD以内であるかを判定する。ここで、距離Dとは、Aモードオブジェクトとグループオブジェクトとの距離が所定以上離れている距離であり、絞り込み検索を行わないと設定されている距離である。   After calculating the distance in step S130, the search unit 60 determines whether the distance between the objects (A mode object and group object) is within D in step S132. Here, the distance D is a distance in which the distance between the A mode object and the group object is a predetermined distance or more, and is a distance that is set not to perform a narrowing search.

検索部60は、ステップS132でオブジェクト間の距離がD以内である(Yes)と判定したら、ステップS134として、吸着保留タイマーを停止する。なお、吸着保留タイマーは、オブジェクト間の距離がDよりも大きい場合に作動するタイマーである。詳しくは後ほど後述する。なお、対象グループオブジェクトが、後述する吸着保留モードである場合は、吸着保留タイマーを停止した後、後述する吸着モードに移行する。   If it is determined in step S132 that the distance between the objects is within D (Yes), the search unit 60 stops the suction hold timer in step S134. The adsorption hold timer is a timer that operates when the distance between objects is greater than D. Details will be described later. If the target group object is in a suction hold mode described later, the suction hold timer is stopped, and then the suction group mode described later is entered.

検索部60は、ステップS134で吸着保留タイマーを停止させたら、ステップS136として、対象グループオブジェクトは、通常モードであるかを判定する。ここで、通常モードとは、初期状態のモードであり、グループオブジェクト内の項目オブジェクトの、Aモードオブジェクトに対する適合率が算出されていない状態である。検索部60は、ステップS136で対象グループオブジェクトが通常モードではない(No)と判定したらステップS142に進む。なお、ステップS136で通常モードでない場合は、吸着モードが選択されている。   After stopping the adsorption hold timer in step S134, the search unit 60 determines whether the target group object is in the normal mode as step S136. Here, the normal mode is a mode in an initial state, and is a state in which the matching rate of the item objects in the group object with respect to the A mode object is not calculated. If it is determined in step S136 that the target group object is not in the normal mode (No), the search unit 60 proceeds to step S142. If the normal mode is not set in step S136, the suction mode is selected.

検索部60は、ステップS136で、対象グループオブジェクトが通常モードである(Yes)と判定したら、ステップS138として、オブジェクト状態を吸着モードに移行する。つまり、オブジェクト状態を通常モードから吸着モードに移行する。検索部60は、ステップS138で吸着モードに移行したら、ステップS140として、対象グループオブジェクトをAモードオブジェクトで検索する。具体的には、Aモードオブジェクトに対する適合率を、対象グループオブジェクトに所属する(含まれる)項目オブジェクト毎に算出する。   If it is determined in step S136 that the target group object is in the normal mode (Yes), the search unit 60 shifts the object state to the suction mode in step S138. That is, the object state is shifted from the normal mode to the suction mode. When the search unit 60 shifts to the suction mode in step S138, the search unit 60 searches for the target group object with the A mode object in step S140. Specifically, the relevance ratio for the A mode object is calculated for each item object belonging to (included in) the target group object.

検索部60は、ステップS140で各項目オブジェクトの適合率を算出したら、または、ステップS136でNoと判定したら、ステップS142として、距離間から吸着する適合率を算出する。つまり、ステップS130で算出した、Aモードオブジェクトと対象グループオブジェクトとの距離に基づいて、Aモードオブジェクトに吸着させる適合率の範囲を算出する。ここで、適合率の範囲は、上述したように、距離が狭いほど広い範囲が算出され、遠いほど狭い範囲が算出される。   If the relevance rate of each item object is calculated in step S140 or if No is determined in step S136, the search unit 60 calculates the relevance rate to be attracted from the distance as step S142. That is, based on the distance between the A mode object and the target group object calculated in step S130, the range of the matching ratio to be attracted to the A mode object is calculated. Here, as described above, as the range of the relevance ratio, a wider range is calculated as the distance is smaller, and a narrower range is calculated as the distance is longer.

検索部60は、ステップS142で適合率の範囲を算出したら、ステップS144として吸着対象を取り出し表示する。つまり、グループオブジェクトに含まれる項目オブジェクトの中から、ステップS140で算出した適合率が、ステップS142で算出した適合率の範囲に含まれる項目オブジェクトを抽出し、抽出した項目オブジェクトを吸着対象として、Aモードオブジェクトの周囲に表示させる。検索部60は、ステップS144で、吸着対象をAモードオブジェクトの周囲に表示させたら、ステップS152に進む。   After calculating the range of the relevance ratio in step S142, the search unit 60 takes out the suction target and displays it in step S144. That is, out of the item objects included in the group object, the matching rate calculated in step S140 extracts the item object included in the range of the matching rate calculated in step S142, and the extracted item object is used as a suction target. Display around the mode object. When the retrieval unit 60 displays the suction target around the A mode object in step S144, the process proceeds to step S152.

次に、検索部60はステップS132でオブジェクト間の距離がD以内ではない(No)と判定したら、つまり、オブジェクト間の距離がDより大きいと判定したら、ステップS146として、対象グループオブジェクトが吸着モードであるかを判定する。検索部60は、ステップS146で吸着モードではない(No)と判定したら、ステップS152に進む。   Next, if the search unit 60 determines in step S132 that the distance between the objects is not within D (No), that is, if it is determined that the distance between the objects is greater than D, in step S146, the target group object is in the suction mode. It is determined whether it is. If the search unit 60 determines that the suction mode is not set (No) in step S146, the search unit 60 proceeds to step S152.

検索部60は、ステップS146で吸着モードである(Yes)と判定したら、ステップS148として、オブジェクト状態を吸着保留モードに移行する。つまり対象グループオブジェクトのモードを吸着保留モードにする。ここで、吸着保留モードとは、適合率の範囲を算出や、対象グループオブジェクトから項目オブジェクトの抽出を行わない処理である。また、上述したように、対象グループオブジェクトとAモードオブジェクトとが一定距離以上離れた状態となっている。   If it is determined in step S146 that the suction mode is selected (Yes), the search unit 60 shifts the object state to the suction hold mode in step S148. That is, the mode of the target group object is set to the suction hold mode. Here, the suction hold mode is a process that does not calculate the range of the relevance rate and does not extract the item object from the target group object. In addition, as described above, the target group object and the A mode object are in a state of being separated by a certain distance or more.

検索部60は、ステップS148で吸着保留モードに移行したら、ステップS150として、吸着保留タイマーのカウントを開始する。ここで、吸着保留タイマーとは、吸着保留モードから通常モードに移行するかの判定の基準となる計測手段である。なお、時間の計測は、装置に内蔵されている時間計測手段や、時間計測ソフトを利用することで実行することができる。検索部60は、ステップS150で、タイマーのカウントを開始したら、ステップS152に進む。なお、検索部60は、ステップS130から、ステップS152の直前までの処理をオブジェクト分繰り返して行う。つまり、対象グループオブジェクトが複数選択されている場合は、それぞれのグループに対して、上記処理を行う。   When the search unit 60 shifts to the suction hold mode in step S148, the search unit 60 starts counting the suction hold timer in step S150. Here, the suction hold timer is a measuring unit that serves as a reference for determining whether to shift from the suction hold mode to the normal mode. Note that the time measurement can be executed by using time measurement means built in the apparatus or time measurement software. When the timer 60 starts counting in step S150, the search unit 60 proceeds to step S152. Note that the search unit 60 repeats the processing from step S130 to immediately before step S152 for each object. That is, when a plurality of target group objects are selected, the above processing is performed for each group.

次に、検索部60は、ステップS146でNoと判定されたら、ステップS144またはステップS150の処理が終了したら、ステップS152として、吸着保留タイマーがタイムアウトしたかを判定する。なお、タイムアウトの基準となる時間は予め設定されている。   Next, when it is determined No in step S146, when the process of step S144 or step S150 ends, the search unit 60 determines whether the suction hold timer has timed out as step S152. Note that the time used as a reference for the timeout is set in advance.

検索部60は、ステップS152でタイムアウトしていない(No)と判定したら、ステップS158に進む。検索部60は、ステップS152でタイムアウトした(Yes)と判定したら、ステップS154として、オブジェクト状態を通常モードに移行する。つまり、オブジェクト状態を吸着保留モードから通常モードに移行する。なお、吸着モードの場合は、吸着保留タイマーがカウントされないため、ステップS154には進まない。検索部60は、ステップS154で通常モードに移行したら、ステップS156として、対象グループオブジェクトの検索情報を破棄する。つまり、ステップS140で算出した、対象グループオブジェクトに含まれる各項目オブジェクトの、キーオブジェクトに対する適合率の情報を破棄する。その後、検索部60は、ステップS158に進む。   If the search unit 60 determines in step S152 that the timeout has not occurred (No), the search unit 60 proceeds to step S158. If it is determined in step S152 that the timeout has occurred (Yes), the search unit 60 shifts the object state to the normal mode in step S154. That is, the object state is shifted from the suction hold mode to the normal mode. In the suction mode, the suction hold timer is not counted, and thus the process does not proceed to step S154. When the search unit 60 shifts to the normal mode in step S154, the search unit 60 discards the search information of the target group object in step S156. That is, the information on the relevance ratio of each item object included in the target group object calculated in step S140 with respect to the key object is discarded. Thereafter, the search unit 60 proceeds to step S158.

検索部60は、ステップS152でNoと判定したら、または、ステップS156の処理を終了したら、ステップS158としてドラッグ状態は解放されたかを判定する。つまり、操作者による入力デバイスへの入力が終了し、Aモードオブジェクトが選択されていない状態となっているかを判定する。検索部60は、ステップS158でドラッグ状態が解除されていない(No)と判定したら、ステップS130に進み上記処理を繰り返す。また、検索部60は、ステップS158で、ドラッグ状態が解除された(Yes)と判定したら、処理を終了する。   When it is determined No in step S152 or when the process of step S156 is completed, the search unit 60 determines whether the drag state is released as step S158. That is, it is determined whether the input to the input device by the operator is completed and the A mode object is not selected. If it is determined in step S158 that the drag state has not been released (No), the search unit 60 proceeds to step S130 and repeats the above processing. If the search unit 60 determines in step S158 that the drag state has been released (Yes), the search unit 60 ends the process.

次に、図12−1から図12−4を用いて、具体的な操作例の一例を説明する。ここで、図12−1から図12−4は、それぞれオブジェクト吸着Aモードで操作が行われた場合の携帯電子通信機器の動作を説明するための説明図である。なお、図12−1から図12−4は、画面表示の一例を示している。また、図12−1から図12−4に示す説明図では、1つのグループオブジェクト及びそれに含まれる項目オブジェクトと、1つのAモード検索キーボックスオブジェクトのみを示し、他のグループオブジェクト及びそれに含まれる項目オブジェクト、キーオブジェクト、検索キーボックスオブジェクトの図示は省略している。また、Aモード検索キーボックスオブジェクトには、「Aさん」というキーオブジェクト、「一人」というキーオブジェクト、「320×240」というキーオブジェクトの3つのキーオブジェクトが含まれており、論理演算としてAND演算が設定されているものとする。   Next, an example of a specific operation example will be described with reference to FIGS. 12-1 to 12-4. Here, FIGS. 12A to 12D are explanatory diagrams for explaining the operation of the portable electronic communication device when the operation is performed in the object adsorption A mode. 12A to 12D show examples of screen display. Also, in the explanatory diagrams shown in FIGS. 12-1 to 12-4, only one group object and item objects included therein and one A-mode search key box object are illustrated, and other group objects and items included in the group objects are included. An object, a key object, and a search key box object are not shown. The A-mode search key box object includes three key objects: a key object “Mr. A”, a key object “one person”, and a key object “320 × 240”, and performs an AND operation as a logical operation. Is set.

まず、Aモード検索キーボックスオブジェクト108aに対応する領域が操作者によりタッチされると、検索部60は、Aモード検索キーボックスオブジェクト108aが選択されたと判定して、オブジェクト吸着Aモードに移行する。   First, when an area corresponding to the A mode search key box object 108a is touched by the operator, the search unit 60 determines that the A mode search key box object 108a has been selected, and shifts to the object adsorption A mode.

次に、操作者によりAモード検索キーボックスオブジェクト108aが移動され、図12−1に示すように、Aモード検索キーボックスオブジェクト108aとグループオブジェクト102aとの距離が一定距離以内となると、グループオブジェクト102aが吸着モードとなり、グループオブジェクト102aに含まれる各項目オブジェクトの、Aモード検索キーボックスオブジェクト108aに含まれているキーオブジェクトの論理演算結果の検索条件に対する適合率を算出する。本実施形態では、項目オブジェクトが画像ファイルであり、Aモード検索キーボックスオブジェクト108aには、「Aさん」というキーオブジェクト、「一人」というキーオブジェクト、「320×240」というキーオブジェクトの3つのキーオブジェクトが含まれており、論理演算としてAND演算が設定されているので、「Aさん」という人物が単独で写っている320×240のサイズの画像ファイルであるかを判断基準として適合率(この場合は一致率にもなる)を算出する。なお、適合率の高さは、完全に一人で写っていると判定できる画像ファイルが適合率100%となり、不明瞭な状態になったり、小さく他の人物が写っていると判定できたりという画像ファイルでは、適合率が低くなる。また、画像に何か写っているかは、画像解析ソフト、顔認識システムを用いることで、自動的に解析することができる。検索部60は、各項目オブジェクトの適合率を算出したら、Aモード検索キーボックスオブジェクト108aとグループオブジェクト102aとの距離に基づいて、吸着させる項目オブジェクトの適合率の範囲を算出し、グループオブジェクト102aの項目オブジェクトの中から、その適合率の範囲に含まれる適合率の項目オブジェクトを抽出し、図12−2に示すように、抽出した項目オブジェクト104aを、Aモード検索キーボックスオブジェクト108a側に移動させて、Aモード検索キーボックスオブジェクト108aに吸着された状態とする。   Next, when the operator moves the A-mode search key box object 108a and the distance between the A-mode search key box object 108a and the group object 102a is within a certain distance as shown in FIG. 12A, the group object 102a. Becomes the adsorption mode, and the relevance ratio of each item object included in the group object 102a to the search condition of the logical operation result of the key object included in the A mode search key box object 108a is calculated. In this embodiment, the item object is an image file, and the A-mode search key box object 108a includes three keys: a key object “Mr. A”, a key object “one person”, and a key object “320 × 240”. Since the object is included and the AND operation is set as the logical operation, the relevance rate (this is determined based on whether or not it is a 320 × 240 size image file in which the person “Mr. A” is shown alone) In this case, the matching rate is also calculated. The high relevance rate is that the image file that can be determined to be completely photographed alone is 100% relevance rate, and the image can be determined to be indistinct or small and other people can be captured. For files, the precision is low. Moreover, whether something is reflected in the image can be automatically analyzed by using image analysis software and a face recognition system. After calculating the relevance ratio of each item object, the search unit 60 calculates the range of the relevance ratio of the item object to be attracted based on the distance between the A-mode search key box object 108a and the group object 102a. From the item objects, an item object having a matching rate included in the range of the matching rate is extracted, and as shown in FIG. 12B, the extracted item object 104a is moved to the A mode search key box object 108a side. Thus, the state is attached to the A-mode search key box object 108a.

なお、「320×240」というキーオブジェクトに関しては、画像サイズが320×240であるか否かを判定し、適合率という考え方をしないこともできる。このような適合率という考え方をしないキーオブジェクトがAモード検索キーボックスオブジェクト108aに含まれている場合には、当該キーオブジェクトに関しては、グループオブジェクト102aに含まれている項目オブジェクトとAモード検索キーボックスオブジェクト108aとの距離を考慮せずに条件に合致するか否かで検索を行うようにしても良い。   For the key object “320 × 240”, it can be determined whether or not the image size is 320 × 240 and the concept of precision is not used. When a key object that does not have such a concept of relevance rate is included in the A mode search key box object 108a, the item object and the A mode search key box included in the group object 102a are related to the key object. The search may be performed based on whether the condition is met without considering the distance to the object 108a.

また、Aモード検索キーボックスオブジェクト108aが図12−1に示す位置からさらにグループオブジェクト102a側に移動され、Aモード検索キーボックスオブジェクト108aとグループオブジェクト102aとの距離が狭く(短く)なったら、吸着させる項目オブジェクトの適合率の範囲がより広く算出され、より適合率の低い項目オブジェクトも抽出され、図12−2に示すように、より多くの項目オブジェクト104bが検索キーボックスオブジェクト108aに吸着された状態となる。   Further, when the A mode search key box object 108a is further moved from the position shown in FIG. 12A to the group object 102a side and the distance between the A mode search key box object 108a and the group object 102a becomes narrow (short), the suction is performed. The range of the matching rate of the item object to be calculated is calculated wider, and the item objects having a lower matching rate are extracted, and as shown in FIG. 12B, more item objects 104b are attracted to the search key box object 108a. It becomes a state.

次に、操作者が入力デバイス34から手を離し、入力デバイス34にタッチしていない状態としてドラッグ状態を解除すると、検索部60により抽出(吸着)される項目オブジェクトが確定される。つまり、抽出する項目オブジェクトの適合率の範囲が確定し、その適合率の範囲を満たす項目オブジェクトが抽出される。抽出された項目オブジェクトの集団は、新たなグループオブジェクト102bとなる。   Next, when the operator releases the input device 34 and releases the drag state in a state where the input device 34 is not touched, the item object to be extracted (sucked) by the search unit 60 is determined. That is, the range of the relevance ratio of the item object to be extracted is determined, and the item objects satisfying the range of the relevance ratio are extracted. The group of extracted item objects becomes a new group object 102b.

次に、操作者が、図12−3に示すように、抽出した項目オブジェクトの集団にタッチして、抽出した項目オブジェクトの集団を元のグループオブジェクト102aから離すと、図12−4に示すように、新たなグループオブジェクト102bとして分離して表示される。また、このとき新たなグループオブジェクト102bは、元のグループオブジェクト102aの名称に検索キーボックスオブジェクト108aに含まれているキーオブジェクトの名称を加えたものとなる。つまり、抽出に用いた検索条件がグループオブジェクト102bの名称として表示される。これにより、グループオブジェクトの属性をわかりやすくすることができる。   Next, as shown in FIG. 12-3, when the operator touches the group of extracted item objects and moves the extracted group of item objects away from the original group object 102a, as shown in FIG. 12-4. Are displayed separately as a new group object 102b. At this time, the new group object 102b is obtained by adding the name of the key object included in the search key box object 108a to the name of the original group object 102a. That is, the search condition used for extraction is displayed as the name of the group object 102b. This makes it easier to understand the attributes of the group object.

なお、ここでは、Aモード検索キーボックスオブジェクト108aが操作された場合について説明したが、Aモードキーオブジェクト(図3参照)が操作された場合にも、同様に、Aモードキーオブジェクトとグループオブジェクト102aとの間の距離に応じて適合率の範囲が確定され、その適合率の範囲を満たす項目オブジェクトがグループオブジェクト102aから抽出される。   Although the case where the A mode search key box object 108a is operated has been described here, the A mode key object and the group object 102a are similarly operated when the A mode key object (see FIG. 3) is operated. The range of the relevance ratio is determined according to the distance between and the item objects satisfying the range of the relevance ratio are extracted from the group object 102a.

次に、図13−1から図18を用いて、オブジェクト吸着Bモードについて説明する。図13−1及び図13−2は、オブジェクト吸着Bモードに移行した場合の携帯電子通信機器の処理動作の一例を示すフロー図である。ここで、オブジェクト吸着Bモードは、Bモードオブジェクトがグループオブジェクト内で移動した距離に応じて、グループオブジェクトの中から抽出する項目オブジェクトの適合率の範囲を変動させるモードである。つまり、Bモードオブジェクトがグループオブジェクト内で移動した距離に応じて、Bモードオブジェクトに吸着させる項目オブジェクトの適合率の閾値を変動させるモードである。具体的には、Bモードオブジェクトがグループオブジェクト内で移動した距離が長いほど、抽出する項目オブジェクトの適合率の範囲を広くし、適合率の低い項目オブジェクトも抽出し、Bモードオブジェクトがグループオブジェクト内で移動した距離が短いほど、抽出する項目オブジェクトの適合率の範囲を狭くし、適合率の高い項目オブジェクトのみ抽出する。なお、本実施形態でも、適合率の高い項目オブジェクトから順に抽出する設定となっているため、適合率の範囲が広くなると、適合率がより低い項目オブジェクトも抽出することになる。   Next, the object adsorption B mode will be described with reference to FIGS. FIGS. 13A and 13B are flowcharts illustrating an example of the processing operation of the portable electronic communication device when the mode is shifted to the object adsorption B mode. Here, the object adsorption B mode is a mode in which the range of the relevance ratio of the item object extracted from the group object is changed according to the distance that the B mode object has moved within the group object. That is, in this mode, the threshold value of the matching rate of the item object to be attracted to the B mode object is changed according to the distance that the B mode object has moved within the group object. Specifically, the longer the distance that the B-mode object moves within the group object, the wider the range of the matching rate of the item object to be extracted, and the item objects with a lower matching rate are also extracted. The shorter the distance moved in is, the narrower the range of the matching rate of the item object to be extracted, and only the item object having a high matching rate is extracted. In this embodiment, the setting is such that the item objects having the highest relevance ratio are extracted in order, so that when the range of the relevance ratio is widened, the item objects having a lower relevance ratio are also extracted.

まず、検索部60は、ステップS126(図10参照)でオブジェクト吸着Bモードに移行したら、ステップS160として、グループオブジェクトの領域内であるかを判定する。つまり、Bモードオブジェクトを操作している状態で、タッチ座標がグループオブジェクトの領域内であるかを判定する。すなわち、Bモードオブジェクトをグループオブジェクトの領域内まで移動させた状態であるかを判定する。   First, when the search unit 60 shifts to the object adsorption B mode in step S126 (see FIG. 10), in step S160, the search unit 60 determines whether it is within the group object area. That is, it is determined whether the touch coordinates are within the group object area while the B-mode object is being operated. That is, it is determined whether or not the B mode object has been moved to the area of the group object.

検索部60は、ステップS160でグループオブジェクトの領域内である(Yes)と判定したら、ステップS162として、吸着保留タイマーを停止する。なお、吸着保留タイマーとは、Bモードオブジェクトがグループオブジェクトの領域内にはない場合に時間がカウントされるタイマーであり、グループオブジェクトのオブジェクト状態が後述する吸着保留モードの場合に使用される。   If it is determined in step S160 that the area is within the group object (Yes), the retrieval unit 60 stops the adsorption suspension timer in step S162. The adsorption hold timer is a timer that counts time when the B-mode object is not in the area of the group object, and is used when the object state of the group object is an adsorption hold mode to be described later.

検索部60は、ステップS162で吸着保留タイマーを停止させたら、ステップS164として、対象グループオブジェクトの状態(オブジェクト状態)は吸着モードかを判定する。ここで、対象グループオブジェクトとは、項目オブジェクトの抽出の対象となるグループオブジェクトである。また、吸着モードとは、グループオブジェクトに含まれる各項目オブジェクトの、Bモードオブジェクトに対する適合率が算出され、Bモードオブジェクトに対象グループオブジェクトを吸着させることができるモードである。なお、吸着モードは後述するステップS192、ステップS194の処理を行うことで移行可能となる。また、吸着保留モードの場合は、吸着保留タイマーを停止することで、吸着モードに移行する。   After stopping the adsorption hold timer in step S162, the search unit 60 determines in step S164 whether the state (object state) of the target group object is the adsorption mode. Here, the target group object is a group object from which item objects are extracted. The adsorption mode is a mode in which the relevance ratio of each item object included in the group object to the B mode object is calculated, and the target group object can be attracted to the B mode object. Note that the suction mode can be shifted by performing the processing of steps S192 and S194 described later. In the suction hold mode, the suction hold timer is stopped to shift to the suction mode.

検索部60は、ステップS164で吸着モードである(Yes)と判定したら、ステップS166として、前回座標と現座標、前回時間と現時間から移動距離と速度を算出する。その後、検索部60は、ステップS168として、移動距離(もしくは速度)から減算する適合率を算出し、取得適合率に減算する。ここで、取得適合率とは、閾値となる適合率である。本実施形態では、適合率が高い項目オブジェクトから順に抽出させるため、移動距離に基づいて減算する適合率を算出して、下限値となる取得適合率を設定することで、抽出する項目オブジェクトの適合率の範囲を設定することができる。また、座標と時間の検出タイミングが同一であるため、移動距離と移動速度は、比例関係となるため、移動距離、速度のどちらを用いて算出しても算出される取得適合率は、同一となる。   If it is determined in step S164 that the suction mode is selected (Yes), the search unit 60 calculates the moving distance and speed from the previous coordinate and current coordinate, the previous time and current time, as step S166. Thereafter, in step S168, the search unit 60 calculates a precision that is subtracted from the movement distance (or speed), and subtracts it from the acquired precision. Here, the acquired matching rate is a matching rate that is a threshold value. In this embodiment, in order to extract the item objects in descending order of the matching rate, the matching rate to be subtracted based on the moving distance is calculated, and the acquisition matching rate that is the lower limit value is set, thereby matching the item object to be extracted. A range of rates can be set. In addition, since the detection timing of the coordinate and time is the same, the movement distance and the movement speed are in a proportional relationship, so the acquisition precision calculated by using either the movement distance or the speed is the same. Become.

検索部60は、ステップS168で取得適合率を算出したら、ステップS170として取得適合率以上の項目オブジェクトは存在するかを判定する。つまり、適合率の範囲に含まれる適合率の項目オブジェクトがあるかを判定する。検索部60は、ステップS170で、取得適合率以上の項目オブジェクトは存在する(Yes)と判定したら、ステップS172として、取得適合率以上の項目オブジェクトをBモードオブジェクトに移動させる。つまり、適合率の範囲に含まれる適合率の項目オブジェクトをBモードオブジェクトに吸着させる。その後、ステップS188に進む。また、検索部60は、ステップS170で、取得適合率以上の項目オブジェクトは存在しない(No)と判定したら、吸着させる項目オブジェクトは存在しないため、ステップS188に進む。なお、ステップS170、ステップS172で、対象となる項目オブジェクトは、前回処理分の差分の項目オブジェクトとしてもよい。つまり新たに吸着させる項目オブジェクトがあるか否かを判定し、新たに吸着させる項目オブジェクトがある場合は、Bモードオブジェクトに吸着させるようにしてもよい。   After calculating the acquisition precision in step S168, the search unit 60 determines in step S170 whether there are item objects that are equal to or higher than the acquisition precision. That is, it is determined whether there is an item object with a matching rate included in the range of matching rates. If it is determined in step S170 that there is an item object having an acquisition matching rate or higher (Yes), the search unit 60 moves the item object having an acquisition matching rate or higher to the B-mode object in step S172. That is, the item object of the matching rate included in the range of the matching rate is attracted to the B-mode object. Thereafter, the process proceeds to step S188. If the search unit 60 determines in step S170 that there is no item object equal to or higher than the acquisition precision (No), the search unit 60 proceeds to step S188 because there is no item object to be attracted. In step S170 and step S172, the target item object may be a difference item object for the previous process. That is, it is determined whether there is an item object to be newly attracted, and when there is an item object to be newly attracted, it may be attracted to the B-mode object.

次に、検索部60は、ステップS164で吸着モードではない(No)と判定したら、ステップS174として、対象グループオブジェクトのオブジェクト状態は通常モードであるかを判定する。検索部60は、ステップS174で通常モードではない(No)と判定したら、ステップS188に進む。また、検索部60は、ステップS174で、通常モードである(Yes)と判定したら、ステップS176として、オブジェクト状態を吸着候補モードに移行し、ステップS178として、吸着候補タイマーのカウントを開始させた後、ステップS188に進む。ここで、吸着候補モードとは、通常モードから吸着モードに移行する間に設定されているモードである。吸着候補モードである間は、Bモードオブジェクトがグループオブジェクトの領域内あっても吸着は行われない。また、吸着候補モードで一定時間、Bモードオブジェクトがグループオブジェクトの領域内にあると吸着モードに移行する。これにより、吸着開始前に、Bモードオブジェクトを移動させるため、所望のグループオブジェクト以外のグループオブジェクトの領域を短時間で通過しても、通過したグループオブジェクトの項目オブジェクトを吸着させないようにすることができる。   Next, if it is determined in step S164 that the suction mode is not set (No), the search unit 60 determines in step S174 whether the object state of the target group object is the normal mode. If it is determined in step S174 that the mode is not the normal mode (No), the search unit 60 proceeds to step S188. If the search unit 60 determines that the normal mode is selected (Yes) in step S174, the object state is shifted to the suction candidate mode in step S176, and the suction candidate timer starts counting in step S178. The process proceeds to step S188. Here, the suction candidate mode is a mode set during the transition from the normal mode to the suction mode. While in the suction candidate mode, suction is not performed even if the B-mode object is within the group object area. Further, when the B-mode object is within the group object area for a certain period of time in the suction candidate mode, the mode shifts to the suction mode. Accordingly, since the B-mode object is moved before the suction starts, the item object of the group object that has passed through can be prevented from being sucked even if it passes through the area of the group object other than the desired group object in a short time. it can.

次に、検索部60は、ステップS160でグループオブジェクトの領域内にはない(No)と判定したら、ステップS180として、吸着候補タイマーを停止する。検索部60は、ステップS180で吸着候補タイマーを停止させたら、ステップS182として、対象グループオブジェクトのオブジェクト状態は、吸着モードであるかを判定する。検索部60は、ステップS182で吸着モードでない(No)と判定したら、ステップS188に進む。また、検索部60は、ステップS182で吸着モードである(Yes)と判定したら、ステップS184として、オブジェクト状態を吸着保留モードに移行した後、ステップS186として、吸着保留タイマーを開始する。なお、ステップS184とステップS186は、図11に示すフロー図のステップS148とステップS150と同様の処理であるので、説明は省略する。なお、検索部60は、ステップS160から、ステップS188の直前までの処理をオブジェクト分繰り返して行う。つまり、対象グループオブジェクトが複数選択されている場合は、それぞれのグループに対して、上記処理を行う。   Next, if it is determined in step S160 that the area is not within the group object area (No), the search unit 60 stops the suction candidate timer in step S180. After stopping the adsorption candidate timer in step S180, the search unit 60 determines in step S182 whether the object state of the target group object is the adsorption mode. If the search unit 60 determines that the suction mode is not set (No) in step S182, the search unit 60 proceeds to step S188. If it is determined in step S182 that the suction mode is selected (Yes), in step S184, the search unit 60 shifts the object state to the suction hold mode, and then starts a suction hold timer in step S186. Steps S184 and S186 are the same as steps S148 and S150 in the flowchart shown in FIG. Note that the search unit 60 repeats the processing from step S160 to immediately before step S188 for each object. That is, when a plurality of target group objects are selected, the above processing is performed for each group.

次に、検索部60は、ステップS170、ステップS174、ステップS182でNoと判定されたら、ステップS172、ステップS178、ステップS186の処理が終了したら、ステップS188として現座標を前回座標とし、現時間を前回座標に退避させる。つまり、座標と時間を更新する。検索部60は、ステップS188で座標と時間を更新したら、ステップS190として、吸着候補タイマーがタイムアウトしたかを判定する。つまり、Bモードオブジェクトが対象グループオブジェクトの領域に入った状態で一定時間以上経過したかを判定する。   Next, when it is determined No in Step S170, Step S174, and Step S182, the search unit 60 ends the processing of Step S172, Step S178, and Step S186, sets the current coordinates as the previous coordinates, and sets the current time as Step S188. Retreat to the previous coordinate. That is, the coordinates and time are updated. When the coordinates and time are updated in step S188, the search unit 60 determines whether the adsorption candidate timer has timed out in step S190. That is, it is determined whether a certain time or more has elapsed while the B-mode object is in the target group object region.

検索部60は、ステップS190で、タイムアウトした(Yes)と判定したら、ステップS192として、オブジェクト状態を吸着モードに移行した後、ステップS194として、対象グループオブジェクトをBモードオブジェクトで検索する。具体的には、Bモードオブジェクトに対する適合率を、対象グループオブジェクトに所属する(含まれる)項目オブジェクト毎に算出する。検索部60は、ステップS194で検索を行ったら、ステップS202に進む。   If it is determined in step S190 that timeout has occurred (Yes), the search unit 60 moves the object state to the suction mode in step S192, and then searches for the target group object in step B194 using the B mode object. Specifically, the relevance ratio for the B mode object is calculated for each item object belonging to (included in) the target group object. After performing the search in step S194, the search unit 60 proceeds to step S202.

また、検索部60は、ステップS190でタイムアウトしていない(No)と判定したら、ステップS196として、吸着保留タイマーがタイムアウトしたかを判定する。検索部60は、ステップS196でタイムアウトしていない(No)と判定したら、ステップS202に進む。検索部60は、ステップS196でタイムアウトした(Yes)と判定したら、ステップS198として、オブジェクト状態を通常モードに移行する。つまり、オブジェクト状態を吸着保留モードから通常モードに移行する。次に、検索部60は、ステップS198で通常モードに移行したら、ステップS200として、対象グループオブジェクトの検索情報を破棄する。つまり、ステップS194で算出した、対象グループオブジェクトに含まれる各項目オブジェクトの、Bモードオブジェクトに対する適合率の情報を破棄する。その後、検索部60は、ステップS202に進む。   If it is determined in step S190 that the timeout has not occurred (No), the search unit 60 determines in step S196 whether the adsorption suspension timer has timed out. If the search unit 60 determines in step S196 that the timeout has not occurred (No), the search unit 60 proceeds to step S202. If it is determined in step S196 that the time-out has occurred (Yes), the search unit 60 shifts the object state to the normal mode in step S198. That is, the object state is shifted from the suction hold mode to the normal mode. Next, when the search unit 60 shifts to the normal mode in step S198, in step S200, the search unit 60 discards the search information for the target group object. That is, the information on the relevance ratio of each item object included in the target group object calculated in step S194 with respect to the B mode object is discarded. Thereafter, the search unit 60 proceeds to step S202.

検索部60は、ステップS196でNoと判定したら、または、ステップS194、ステップS200の処理を終了したら、ステップS202としてドラッグ状態は解除されたかを判定する。つまり、操作者による入力デバイスへの入力が終了し、Bモードオブジェクトが選択されていない状態となっているかを判定する。検索部60は、ステップS202でドラッグ状態が解除されていない(No)と判定したらステップS160に進み上記処理を繰り返す。また、検索部60は、ステップS202で、ドラッグ状態が解除された(Yes)と判定したら、ステップS204に進む。   When it is determined No in step S196 or when the processes of steps S194 and S200 are completed, the search unit 60 determines whether the drag state is released as step S202. That is, it is determined whether the input to the input device by the operator is finished and the B-mode object is not selected. If it is determined in step S202 that the drag state has not been released (No), the search unit 60 proceeds to step S160 and repeats the above processing. If the search unit 60 determines in step S202 that the drag state has been released (Yes), the search unit 60 proceeds to step S204.

検索部60は、ステップS204として、対象グループオブジェクトは吸着モードであるかを判定する。検索部60は、ステップS204で吸着モードではない(No)と判定したらそのまま処理を終了する。   In step S204, the search unit 60 determines whether the target group object is in the suction mode. If it is determined in step S204 that the suction mode is not set (No), the search unit 60 ends the process.

検索部60は、ステップS204で吸着モードである(Yes)と判定したら、ステップS206としてオブジェクト状態を叩きモードに移行し、ステップS208に進む。ここで、叩きモードとは、Bモードオブジェクトが対象グループオブジェクトの領域内にある状態で、入力デバイス34でタップ(クリック)処理を検出したら、取得適合率を変動させ、適合率の範囲を狭くするモードである。   If it is determined in step S204 that the suction mode is selected (Yes), the search unit 60 shifts the object state to the hit mode in step S206, and proceeds to step S208. Here, the hit mode is a state in which the B mode object is in the region of the target group object, and when the tap (click) process is detected by the input device 34, the acquired matching rate is changed to narrow the range of the matching rate. Mode.

検索部60は、ステップS208として、タッチされたかを判定する。つまり、操作者により入力デバイス34がタッチされたかを判定する。検索部60は、ステップS208でタッチされていない(No)と判定したら、ステップS220に進む。また、検索部60は、ステップS208でタッチされている(Yes)と判定したら、ステップS210として、タッチされたのは検索キーオブジェクト、つまり、絞り込み検索を行っているBモードオブジェクトかを判定する。検索部60は、ステップS210で、Bモードオブジェクトがタッチされていない(No)、つまり別の部分がタッチされていると判定した場合は、処理を終了する。   The search part 60 determines whether it was touched as step S208. That is, it is determined whether the input device 34 has been touched by the operator. If it is determined in step S208 that the touch is not made (No), the search unit 60 proceeds to step S220. If the search unit 60 determines that it is touched (Yes) in step S208, the search unit 60 determines in step S210 whether the touched key object, that is, the B-mode object that is performing a narrow search. If the search unit 60 determines in step S210 that the B-mode object is not touched (No), that is, if another part is touched, the search unit 60 ends the process.

検索部60は、ステップS210でBモードオブジェクトがタッチされている(Yes)と判定したら、ステップS212として、叩き解除タイマーのカウントを開始する。ここで、叩き解除タイマーとは、叩きモードを解除するかの判定の基準となる計測手段である。検索部60は、ステップS212で叩き解除タイマーを開始したら、ステップS214として、取得適合率を加算する。具体的には、ステップS208で検出したタッチとその前のタッチの解除(ステップS204でドラッグ解除か、前回のステップS208でタッチが解除されたとき)との間隔に応じて、加算する取得適合率を算出する。本実施形態では、時間間隔が長いほど、加算する取得適合率(つまり、取得適合率を変化させる値)を大きくし、時間間隔が短いほど、加算する取得適合率を小さくする。つまり、時間間隔が長いほど、取得適合率を高くする変動幅を大きくして適合率の範囲を狭くし、時間間隔が短いほど、取得適合率を高くする変動幅を小さくして適合率の範囲をあまり狭くしない。   If it is determined in step S210 that the B-mode object is touched (Yes), the search unit 60 starts counting the hit release timer in step S212. Here, the hit release timer is a measuring means that serves as a reference for determining whether to release the hit mode. When the hit release timer is started in step S212, the search unit 60 adds the acquired matching rate as step S214. Specifically, the acquisition precision ratio to be added according to the interval between the touch detected in step S208 and the release of the previous touch (drag release in step S204 or when the touch was released in the previous step S208). Is calculated. In the present embodiment, as the time interval is longer, the acquisition accuracy rate to be added (that is, a value that changes the acquisition accuracy rate) is increased, and as the time interval is shorter, the acquisition accuracy rate to be added is decreased. In other words, the longer the time interval, the larger the fluctuation range that increases the acquisition accuracy rate and narrows the range of the accuracy rate, and the shorter the time interval, the smaller the fluctuation range that increases the acquisition accuracy rate and the range of the accuracy rate Do not make it too narrow.

検索部60は、ステップS214で取得適合率を加算したら、ステップS216として、取得適合率以下の項目オブジェクトは存在するかを判定する。つまり、Bモードオブジェクトに吸着させている項目オブジェクトの中に、取得適合率以下(適合率の範囲に含まれない)の項目オブジェクトは存在するかを判定する。検索部60は、ステップS216で取得適合率以下の項目オブジェクトは存在しない(No)と判定したら、ステップS220に進む。また、検索部60は、ステップS216で取得適合率以下の項目オブジェクトは存在する(Yes)と判定したら、ステップS218として、取得適合率以下の項目ブジェクトを元のグループオブジェクトに移動させる。つまり、取得適合率以下の項目オブジェクトをBモードオブジェクトに吸着させていた状態から、元のグループオブジェクトに所属している状態に戻す。検索部60は、その後、ステップS220に進む。   After adding the acquired matching rate in step S214, the search unit 60 determines whether there is an item object that is equal to or less than the acquired matching rate in step S216. That is, it is determined whether there is an item object that is less than or equal to the acquired matching rate (not included in the range of matching rate) among the item objects that are attracted to the B-mode object. If the search unit 60 determines in step S216 that there is no item object equal to or lower than the acquisition precision (No), the search unit 60 proceeds to step S220. If it is determined in step S216 that there are item objects equal to or less than the acquired matching rate (Yes), the search unit 60 moves item objects equal to or lower than the acquired matching rate to the original group object in step S218. That is, the state where the item object having the acquisition precision or less is attracted to the B-mode object is returned to the state belonging to the original group object. Thereafter, the search unit 60 proceeds to step S220.

検索部60は、ステップS208、ステップS216でNoと判定されたら、また、ステップS218の処理を終了したら、ステップS220として、叩き解除タイマーはタイムアウトしたかを判定する。検索部60は、ステップS220でタイムアウトしていない(No)と判定したらステップS208に進み上記処理を繰り返し、タイムアウトしている(Yes)と判定したら、処理を終了する。つまり、検索部60は、タイムアウトするか、Bモードオブジェクト以外の領域がタッチされるまで、叩きモードの処理を繰り返し行う。   When it is determined No in step S208 and step S216, and when the process of step S218 is completed, the search unit 60 determines whether the hit release timer has timed out in step S220. If it is determined in step S220 that the timeout has not occurred (No), the search unit 60 proceeds to step S208, repeats the above processing, and if it is determined that the timeout has occurred (Yes), the processing ends. That is, the search unit 60 repeatedly performs the hit mode process until a time-out occurs or an area other than the B-mode object is touched.

次に、図14−1から図18を用いて、具体的な操作例の一例を説明する。図14−1から図14−3は、それぞれオブジェクト吸着Bモードで操作が行われた場合の携帯電子通信機器の動作を説明するための説明図である。また、図15は、携帯電子通信機器の動作を説明するためのグラフである。また、図16−1、図16−2及び図17も、それぞれオブジェクト吸着Bモードで操作が行われた場合の携帯電子通信機器の動作を説明するための説明図である。また、図18は、携帯電子通信機器の動作を説明するためのグラフである。なお、図14−1から図14−3、図16−1、図16−2及び図17もそれぞれ、操作の対象に関係のあるグループオブジェクト、Bモードオブジェクトを表示させ、一部のグループオブジェクト、キーオブジェクトを省略した。また、Bモード検索キーボックスオブジェクトには、「Aさん」というキーオブジェクトと、「複数」というキーオブジェクトの2つのキーオブジェクトが含まれており、論理演算としてAND演算が設定されているものとする。   Next, an example of a specific operation example will be described with reference to FIGS. FIGS. 14A to 14C are explanatory diagrams for explaining the operation of the portable electronic communication device when the operation is performed in the object adsorption B mode. FIG. 15 is a graph for explaining the operation of the portable electronic communication device. FIGS. 16A, 16B, and 17 are also explanatory diagrams for explaining the operation of the portable electronic communication device when the operation is performed in the object adsorption B mode. FIG. 18 is a graph for explaining the operation of the portable electronic communication device. 14-1 to 14-3, FIG. 16-1, FIG. 16-2, and FIG. 17 also display group objects and B-mode objects that are related to the operation target, and display some group objects, The key object was omitted. The B-mode search key box object includes two key objects, a key object “Mr. A” and a key object “plurality”, and an AND operation is set as a logical operation. .

まず、図14−1に示すように、Bモードオブジェクトの1つ、本実施形態ではBモード検索キーボックスオブジェクト108bに対応する領域が操作者によりタッチされると、検索部60は、Bモード検索キーボックスオブジェクト108bが選択されたと判定して、オブジェクト吸着Bモードに移行する。   First, as shown in FIG. 14A, when an area corresponding to one of the B mode objects, in this embodiment, the B mode search key box object 108b is touched by the operator, the search unit 60 performs the B mode search. It determines with the key box object 108b having been selected, and transfers to object adsorption | suction B mode.

次に、操作者によりBモード検索キーボックスオブジェクト108bが移動される。このとき、Bモード検索キーボックスオブジェクト108bが短時間で通過するとグループオブジェクト102aは、吸着モードにならないため、絞り込み検索は行われず、図14−2に示すように、Bモード検索キーボックスオブジェクト108bには、項目オブジェクトが吸着されない。このように、短時間のみで通過した場合は吸着モードに移行しないように設定することで、Bモード検索キーボックスオブジェクト108bでグループオブジェクト102cの絞り込み検索を行いたい場合でも、Bモード検索キーボックスオブジェクト108bをグループオブジェクト102aの領域を迂回させるように移動させる必要がなくなる。   Next, the B-mode search key box object 108b is moved by the operator. At this time, if the B-mode search key box object 108b passes in a short time, the group object 102a does not enter the suction mode, so no narrowing search is performed, and as shown in FIG. The item object is not picked up. In this way, by setting so as not to shift to the suction mode when passing for only a short time, the B-mode search key box object can be used even when the B-mode search key box object 108b is to perform a narrow search of the group object 102c. It is not necessary to move 108b so as to bypass the area of the group object 102a.

また、操作者により操作され、一定時間以上、一定速度以上でBモード検索キーボックスオブジェクト108bがグループオブジェクト102aの領域内を移動させられると、グループオブジェクト102aが吸着モードとなる。これにより、検索部60は、グループオブジェクト102aに含まれる各項目オブジェクトの、Bモード検索キーボックスオブジェクト108bの検索条件に対する適合率を算出する。本実施形態では、項目オブジェクトが画像ファイルであり、Bモード検索キーボックスオブジェクト108bには、「Aさん」というキーオブジェクトと、「複数」というキーオブジェクトの2つのキーオブジェクトが含まれており、論理演算としてAND演算が設定されているので、人物が複数で写っている画像ファイルであるかを判断基準として適合率(この場合は一致率にもなる)を算出する。なお、適合率の高さは、完全に複数で写っていると判定できる画像ファイルが適合率100%となり、不明瞭な状態になったり、人物と思われる対象が複数写っていると判定できたりという画像ファイルでは、適合率が低くなる。検索部60は、各項目オブジェクトの適合率を算出したら、Bモード検索キーボックスオブジェクト108bの移動距離、移動速度に基づいて、取得適合率(つまり適合率の範囲)を算出し、グループオブジェクト102aの項目オブジェクトの中から、その適合率の範囲に含まれる適合率の項目オブジェクトを抽出し、図14−3に示すように、抽出した項目オブジェクト104cを、Bモード検索キーボックスオブジェクト108b側に移動させて、Bモード検索キーボックスオブジェクト108bに吸着された状態とする。   In addition, when the B-mode search key box object 108b is moved within the area of the group object 102a by being operated by the operator and moving for a certain period of time or more than a certain speed, the group object 102a enters the suction mode. Thereby, the search unit 60 calculates the relevance ratio of each item object included in the group object 102a with respect to the search condition of the B-mode search key box object 108b. In the present embodiment, the item object is an image file, and the B-mode search key box object 108b includes two key objects, a key object “Mr. A” and a key object “multiple”. Since the AND operation is set as the operation, the relevance ratio (in this case, also the coincidence ratio) is calculated based on whether or not the image file includes a plurality of persons. Note that the accuracy rate is 100% for an image file that can be determined to be completely captured in multiple images, and it can be determined that the image is indistinct or multiple objects that appear to be people are captured. In the case of the image file, the precision is low. After calculating the relevance ratio of each item object, the search unit 60 calculates the acquired relevance ratio (that is, the range of the relevance ratio) based on the moving distance and moving speed of the B-mode search key box object 108b, and the group object 102a. From the item objects, an item object having a matching rate included in the range of the matching rate is extracted, and the extracted item object 104c is moved to the B-mode search key box object 108b side as shown in FIG. 14-3. Thus, the state is attached to the B-mode search key box object 108b.

ここで、取得適合率は、グループオブジェクトの領域内での移動距離、移動速度に応じて、図15に示すグラフのように変化する。具体的には、図15に示すように、グループオブジェクトの領域内に入って一定時間経過後の時間t1で、オブジェクト状態が吸着モードとなり、取得適合率の算出が開始する。その後、時間t1から時間t2の間のように、Bモードオブジェクトがゆっくり移動されている間は、取得適合率の変化の割合が小さく、つまり徐々に変化し、時間t2から時間t3の間のように、Bモードオブジェクトがはやく移動されている間は、取得適合率の変化の割合が大きく、つまり、取得適合率が大きく変化するする。これにより、操作者のBモードオブジェクトの移動のさせ方により、適合率の範囲の変化のさせ方を調整することができ、操作性を高くすることができる。   Here, the acquisition matching rate changes as shown in the graph of FIG. 15 according to the moving distance and moving speed in the area of the group object. Specifically, as shown in FIG. 15, at a time t1 after entering the area of the group object and after a predetermined time has elapsed, the object state becomes the suction mode, and the calculation of the acquisition matching rate starts. After that, while the B-mode object is moved slowly, such as between time t1 and time t2, the rate of change of the acquisition precision is small, that is, gradually changes, such as between time t2 and time t3. In addition, while the B-mode object is moved quickly, the rate of change of the acquisition accuracy rate is large, that is, the acquisition accuracy rate changes greatly. Thereby, the way of changing the range of the relevance ratio can be adjusted depending on how the operator moves the B-mode object, and operability can be improved.

次に、図16−1に示すように、グループオブジェクト内の項目オブジェクト104cがBモード検索キーボックスオブジェクト108bに吸着された状態で、Bモード検索キーボックスオブジェクト108bをグループオブジェクトの領域の外に移動させた後、ドラッグ状態から解放させると、図16−2に示すように、新たなグループオブジェクト102dとして分離して表示される。また、このとき新たなグループオブジェクト102dは、元のグループオブジェクト102aの名称にBモード検索キーボックスオブジェクト108bの名称を加えたものとなる。つまり、抽出に用いた検索条件がグループオブジェクトの名称として表示される。これにより、グループオブジェクトの属性をわかりやすくすることができる。   Next, as shown in FIG. 16A, with the item object 104c in the group object attached to the B-mode search key box object 108b, the B-mode search key box object 108b is moved out of the group object area. Then, when released from the dragged state, as shown in FIG. 16-2, it is displayed separately as a new group object 102d. At this time, the new group object 102d is obtained by adding the name of the B-mode search key box object 108b to the name of the original group object 102a. That is, the search condition used for extraction is displayed as the name of the group object. This makes it easier to understand the attributes of the group object.

また、図17に示すように、Bモード検索キーボックスオブジェクト108bがグループオブジェクト102aの領域内にある状態で、Bモード検索キーボックスオブジェクト108bをドラッグした状態から解放され、また、Bモード検索キーボックスオブジェクト108bにタッチされると、つまり、Bモード検索キーボックスオブジェクト108bがグループオブジェクト102aの領域内にある状態で、Bモード検索キーボックスオブジェクト108bがタップされると、検索部60は、取得適合率を算出しなおし、取得適合率をより高く変更する。これにより、Bモード検索キーボックスオブジェクト108bに吸着されている項目オブジェクトのうち、取得適合率以下の適合率の項目オブジェクトは、吸着されている状態からグループオブジェクトに所属している状態に戻る。つまり、吸着されていない状態となる。このように、タップされたら、取得適合率を高くするようにすることで、項目オブジェクトを吸着させすぎた場合に、適合率の低い項目オブジェクトを外すことができる。このため、処理を最初からやり直すことなく、所望の数の項目オブジェクトを吸着させることが可能となる。   In addition, as shown in FIG. 17, the B-mode search key box object 108b is released from the dragged state while the B-mode search key box object 108b is in the area of the group object 102a. When the object 108b is touched, that is, when the B-mode search key box object 108b is tapped in a state where the B-mode search key box object 108b is within the area of the group object 102a, the search unit 60 obtains the acquisition precision Is calculated again and the acquisition precision is changed to a higher value. As a result, among the item objects that are attracted to the B-mode search key box object 108b, the item objects that have a matching rate equal to or less than the acquired matching rate return from the sucked state to the state that belongs to the group object. That is, it will be in the state which is not adsorbed. As described above, when the tapping is performed, the acquisition matching rate is increased, so that the item object having a low matching rate can be removed when the item objects are attracted too much. For this reason, it is possible to attract a desired number of item objects without redoing the process from the beginning.

ここで、Bモードオブジェクトのタップ(つまりクリック)により取得適合率を変化させる場合は、図18に示すように、タップのタイミングによって、取得適合率の変化の割合(傾き)を変化させることが好ましい。例えば、図18に示すように、タップの間隔がゆっくりの場合は、取得適合率の変化の割合(傾き)を緩やかに、つまり、取得適合率が徐々に上昇するようにし、タップの間隔が早い(短い間隔でタップされる)場合は、取得適合率の変化の割合(傾き)を急激に、つまり、取得適合率が急激に上昇するようにすることが好ましい。このように、タップのタイミング(間隔)によって、取得適合率の変化の割合(傾き)を変化させることで、操作者が項目オブジェクトの吸着状態を簡単かつ適切に調整することが可能となり、操作性を高くすることができる。なお、上記実施形態では、タップの間隔と時間に基づいて取得変化率を変化させたが、本発明はこれに限定されず、一回のタップで変換させる取得適合率を予め設定しておき、タップの回数に基づいて、取得適合率の変化量(変化させる割合)を決定するようにしてもよい。   Here, when the acquisition precision is changed by tapping (that is, clicking) the B-mode object, it is preferable to change the rate of change (slope) of the acquisition precision according to the tap timing, as shown in FIG. . For example, as shown in FIG. 18, when the tap interval is slow, the rate of change (slope) of the acquisition precision is gradually increased, that is, the acquisition precision is gradually increased, and the tap interval is fast. In the case of (tapped at a short interval), it is preferable to make the rate of change (slope) of the acquisition accuracy rate abruptly, that is, the acquisition accuracy rate increases rapidly. In this way, by changing the rate (inclination) of the change in the acquisition precision according to the tap timing (interval), the operator can easily and appropriately adjust the adsorption state of the item object, and the operability Can be high. In the above embodiment, the acquisition change rate is changed based on the tap interval and time, but the present invention is not limited to this, and the acquisition accuracy rate to be converted with one tap is set in advance. Based on the number of taps, the amount of change (the rate of change) of the acquisition precision may be determined.

なお、ここでは、Bモード検索キーボックスオブジェクト108bが操作された場合について説明したが、Bモードキーオブジェクト(図3参照)が操作された場合にも、同様に、グループオブジェクトとBモードキーオブジェクトとの位置関係に基づいて、抽出する項目オブジェクトの適合率の範囲を算出し、適合率の範囲を満たす項目オブジェクトが抽出される。   Here, the case where the B-mode search key box object 108b is operated has been described, but when the B-mode key object (see FIG. 3) is operated, similarly, the group object, the B-mode key object, Based on the positional relationship, the range of the precision of the item object to be extracted is calculated, and the item objects satisfying the range of the precision are extracted.

携帯電子通信機器10は、このように、キーオブジェクトを複数含むことが可能な検索キーボックスオブジェクトに所望のキーオブジェクトを含ませ、所望の論理演算を設定することで、操作者が、直感的、視覚的に複数のキーオブジェクトの論理演算結果を検索条件として絞り込み検索を実行することができ、操作者の所望の検索結果を簡単に得ることが可能となる。   In this way, the mobile electronic communication device 10 includes a desired key object in a search key box object that can include a plurality of key objects, and sets a desired logical operation so that the operator can intuitively It is possible to visually narrow down a search using the logical operation results of a plurality of key objects as search conditions, and it is possible to easily obtain a search result desired by the operator.

また、検索キーボックスオブジェクトに含まれているキーオブジェクトの確認(図9−2参照)、検索キーボックスオブジェクトへのキーオブジェクトの追加(図5−1から図5−4参照)、検索キーボックスオブジェクトからのキーオブジェクトの削除(図9−3参照)、検索キーボックスオブジェクトに設定される論理演算の変更(図7−1から図7−4参照)を簡単な操作で直感的に行うことができる。   Also, confirmation of key objects included in the search key box object (see FIG. 9-2), addition of key objects to the search key box object (see FIGS. 5-1 to 5-4), search key box object The key object can be deleted intuitively (see FIG. 9-3) and the logical operation set in the search key box object (see FIGS. 7-1 to 7-4) can be intuitively performed with a simple operation. .

なお、本実施形態では、検索キーボックスオブジェクトに設定されている論理演算に応じて検索キーボックスオブジェクトの色を変更する場合について説明したが、本発明はこれに限定されない。例えば、検索キーボックスオブジェクトに設定されている論理演算に応じて検索キーボックスオブジェクトの形状を変更するようにしても良い。   In the present embodiment, the case has been described in which the color of the search key box object is changed according to the logical operation set in the search key box object, but the present invention is not limited to this. For example, the shape of the search key box object may be changed according to the logical operation set for the search key box object.

また、携帯電子通信機器10は、このように、グループオブジェクトと検索キーボックスオブジェクトまたはキーオブジェクトとの位置関係に基づいて、抽出する項目オブジェクトの適合率の範囲を算出し、適合率の範囲を満たす項目オブジェクトを抽出するようにすることで、操作者が、視覚的に検索結果の状態を認識することができる。これにより、操作者の所望の検索結果を簡単に得ることが可能となる。また、操作者の操作により適合率の程度を簡単に調整することが可能となることで、操作者の操作性を高くすることができる。   Further, the mobile electronic communication device 10 thus calculates the range of the matching rate of the item object to be extracted based on the positional relationship between the group object and the search key box object or the key object, and satisfies the range of the matching rate. By extracting the item object, the operator can visually recognize the state of the search result. Thereby, it is possible to easily obtain a search result desired by the operator. In addition, since the degree of precision can be easily adjusted by the operation of the operator, the operability of the operator can be improved.

また、抽出した項目オブジェクトを検索キーボックスオブジェクトまたはキーオブジェクトに吸着させて表示することで、抽出された項目オブジェクトの数を認識することが可能となり、この点でも操作性を高くすることができる。なお、本実施形態では、項目オブジェクトを検索キーボックスオブジェクトまたはキーオブジェクトに吸着させて表示することで、抽出されたことを示したが、本発明はこれに限定されない。検索キーボックスオブジェクトまたはキーオブジェクトの検索により項目オブジェクトが抽出されたことを視覚的に認識できればよく、抽出した項目オブジェクトの数を表示させるようにしてもよい。   Further, by displaying the extracted item objects by adsorbing them to the search key box object or key object, it is possible to recognize the number of extracted item objects, and in this respect, the operability can be improved. In the present embodiment, the item object is displayed by being attracted to the search key box object or the key object and displayed, but the present invention is not limited to this. It is only necessary to visually recognize that the item object has been extracted by searching the search key box object or key object, and the number of extracted item objects may be displayed.

また、グループオブジェクトは、所属している項目オブジェクトの数に比例して表示領域を設定することが好ましい。つまり、所属している項目オブジェクトの数が少ないグループオブジェクトは、より小さい領域で表示し、所属している項目オブジェクトの数が多いグループオブジェクトは、より大きい領域で表示するようにすることが好ましい。また、キーオブジェクトで吸着している項目オブジェクトの集合体の場合も同様に表示することが好ましい。これにより、項目オブジェクトの吸着状態を視覚で簡単に把握することができ、操作性を高くすることができる。   Moreover, it is preferable that the display area is set in proportion to the number of item objects to which the group object belongs. That is, it is preferable to display a group object with a small number of belonging item objects in a smaller area, and display a group object with a large number of belonging item objects in a larger area. Further, it is preferable to display the same in the case of a collection of item objects attracted by the key object. Thereby, the adsorption state of the item object can be easily grasped visually, and the operability can be improved.

また、グループオブジェクト及び/または項目オブジェクトの集合体は、その表示領域の外周(輪郭線)に線を表示することが好ましい。このように、表示領域の外周を線で明示することで、表示領域の大きさを的確に把握することができ、操作者によるタッチ操作も適切に行うことが可能となる。   Moreover, it is preferable that the group object and / or the collection of item objects display a line on the outer periphery (contour line) of the display area. Thus, by clearly indicating the outer periphery of the display area with a line, the size of the display area can be accurately grasped, and the touch operation by the operator can be appropriately performed.

ここで、上記実施形態では、各項目オブジェクトの適合率を算出した後、適合率の範囲を算出したが、適合率の算出と、適合率の範囲の算出の処理の順番は、どちらでもよい。なお、計算量を少なくすることができるため、項目オブジェクトの適合率は、一度算出したら、破棄するまで、流用するようにすることが好ましい。また、本実施形態では、検索部で各項目オブジェクトの適合率を算出するようにしたが、本発明はこれに限定されない。各項目オブジェクトの適合率を求めることができればよく、ネットワーク等を介して外部の装置から供給された適合率の情報を用いるようにしてもよい。   Here, in the above embodiment, the precision ratio range is calculated after calculating the precision ratio of each item object. However, the order of processing of the precision ratio calculation and the precision ratio range calculation may be either. Since the calculation amount can be reduced, it is preferable that the relevance ratio of the item object is used once it is calculated until it is discarded. In the present embodiment, the relevance ratio of each item object is calculated by the search unit, but the present invention is not limited to this. It suffices to determine the relevance ratio of each item object, and information on the relevance ratio supplied from an external device via a network or the like may be used.

また、上記実施形態では、画像ファイルを例として説明したが、上述したように、音楽ファイルの検索、ホームページの検索等にも用いることができる。さらに、通信先(連絡を取る相手先)の検索に用いるようにしてもよい。この場合は、グループオブジェクトが、いわゆるアドレス帳となり、項目オブジェクトが、個別アドレス(通信先特定オブジェクト)となる。また、この場合キーオブジェクトは、「アドレスの名前が、あ行」、電話番号の一部、メールアドレスの一部、アドレスのグループ等が例示される。なお、個別アドレスには、氏名や、電話番号、メールアドレス、住所等の情報が記憶されている。また、アドレス帳で検索した結果で抽出した個別アドレスに対して電話をかけるモードに移行するようにしてもよく、また、抽出した個別アドレスに対して送信するメールを作成するメール作成画面に移行するようにしてもよい。この場合は、抽出した個別アドレスの中から操作者の入力デバイスへの操作により選択された少なくとも1つの個別アドレスに記憶された情報に基づいて、特定された通信先に通信部で通信を行うことで、メールを送信したり、電話をかけたりする。   In the above-described embodiment, the image file has been described as an example. However, as described above, the image file can be used for searching a music file, a home page, and the like. Further, it may be used for searching for a communication destination (a partner to be contacted). In this case, the group object is a so-called address book, and the item object is an individual address (communication destination specifying object). In this case, examples of the key object include “address name is A line”, a part of a telephone number, a part of a mail address, a group of addresses, and the like. The individual address stores information such as name, telephone number, mail address, and address. In addition, it may be possible to shift to a mode for making a call to an individual address extracted as a result of searching in the address book, or to a mail creation screen for creating a mail to be transmitted to the extracted individual address. You may do it. In this case, the communication unit communicates with the specified communication destination based on the information stored in at least one individual address selected by the operator's operation on the input device from the extracted individual addresses. Then send an email or make a call.

例えば、項目オブジェクトがアドレス帳データ内の電話番号を表す画像であった場合、ユーザーにより複数の項目オブジェクトから1つが選択されると、CPU22は、選択された項目オブジェクトに対応する電話番号との通話を要求する処理を実行する。また、項目オブジェクトがアドレス帳データ内のメールアドレスを表す画像であった場合、ユーザーにより複数の項目オブジェクトから1つが選択されると、CPU22は、選択された項目オブジェクトに対応するメールアドレスへ送信するメールを作成するための画面を表示デバイスに表示する。また、項目オブジェクトがWEBページのアドレス(URL:Uniform Resource Locator)を表す画像であった場合、ユーザーにより複数の項目オブジェクト14から1つが選択されると、CPU22は、選択された項目オブジェクトに対応するURLへの接続(リンク先のファイルのダウンロードし、ファイルに対応したアプリケーションプログラムを実行)する。   For example, when the item object is an image representing a telephone number in the address book data, when one is selected from a plurality of item objects by the user, the CPU 22 makes a call with the telephone number corresponding to the selected item object. Execute the process that requests When the item object is an image representing a mail address in the address book data, when one is selected from a plurality of item objects by the user, the CPU 22 transmits to the mail address corresponding to the selected item object. Display the screen for composing mail on the display device. When the item object is an image representing an address (URL: Uniform Resource Locator) of the WEB page, when one is selected from the plurality of item objects 14 by the user, the CPU 22 corresponds to the selected item object. Connect to the URL (download the linked file and execute the application program corresponding to the file).

また、上記実施形態では、適合率をキーワードや条件との一致度に基づいて算出したが、本発明はこれに加え、閲覧回数や、人気度等のパラメータも加味して適合率を算出するようにしてもよい。   In the above embodiment, the relevance ratio is calculated based on the degree of coincidence with the keyword and the condition. However, in addition to this, the present invention calculates the relevance ratio in consideration of parameters such as the number of times of browsing and popularity. It may be.

また、上記実施形態では、好適な態様として、タッチパネルを備えた携帯電話機を例として説明したが、これに限定されない。上述したように、各種通信機器に用いることができる。また通信部としては、基地局を介して公衆通信網と接続する通信部や、他の端末と直接通信する通信部が例示される。また、接続先は、サーバや、他の端末等が例示される。   Moreover, although the said embodiment demonstrated as an example the mobile telephone provided with the touch panel as a suitable aspect, it is not limited to this. As described above, it can be used for various communication devices. Examples of the communication unit include a communication unit that connects to a public communication network via a base station, and a communication unit that directly communicates with other terminals. Examples of the connection destination include a server and other terminals.

また、上記実施形態では、表示デバイスとして液晶表示装置を用い、入力デバイスとしてタッチパネルを用いたが、これにも限定されない。例えば、表示デバイスとしてプロジェクタ等の投影表示手段を用い、入力デバイスとして、投影された画像の表示領域に入力される接触を検出する接触検出手段を用いてもよい。具体的には、操作者が表示領域に手をいれ、その手をオブジェクトが表示された領域に持っていき、その状態から表示領域内で手を動かす。このような手の動作を接触検出手段で検出することで、同様の制御を行うことができる。   Moreover, in the said embodiment, although the liquid crystal display device was used as a display device and the touch panel was used as an input device, it is not limited to this. For example, a projection display unit such as a projector may be used as the display device, and a contact detection unit that detects a contact input to the display area of the projected image may be used as the input device. Specifically, the operator places a hand in the display area, brings the hand to the area where the object is displayed, and moves the hand in the display area from that state. The same control can be performed by detecting such movement of the hand by the contact detection means.

なお、本実施形態の携帯電子通信機器10は、WEBページを表示できるWEBブラウザを搭載し、当該WEBブラウザでWEBページの検索結果に対応する画像を表示デバイスに表示する携帯電子機器にも適用できる。この場合、項目オブジェクトは、URLを表す画像である。また、グループオブジェクトは、検索によって抽出されたURL群を囲う画像である。携帯電子通信機器10は、これらの画像を表示デバイスに表示し、1つの項目オブジェクトが表示されている領域に接触されて選択されると、選択された項目オブジェクトに対応するURLにより指定されるWEBページを通信部により取得して表示デバイスに表示する。   Note that the mobile electronic communication device 10 of the present embodiment is also applicable to a mobile electronic device that is equipped with a WEB browser that can display a WEB page and displays an image corresponding to the search result of the WEB page on the display device. . In this case, the item object is an image representing a URL. The group object is an image surrounding the URL group extracted by the search. When the portable electronic communication device 10 displays these images on a display device and is selected by touching an area where one item object is displayed, the WEB specified by the URL corresponding to the selected item object is displayed. The page is acquired by the communication unit and displayed on the display device.

以上のように、本発明にかかる通信機器及び携帯電子機器は、複数のオブジェクトの中から検索条件に適合するオブジェクトを抽出するのに有用である。   As described above, the communication device and the portable electronic device according to the present invention are useful for extracting an object that meets a search condition from a plurality of objects.

10 携帯電子通信機器
22 CPU
26 通信部
30 音声処理部
32 表示デバイス
34 入力デバイス
36 ROM
38 RAM
40 内部ストレージ
42 外部ストレージインターフェース
46 外部ストレージ
50 マイク
52 レシーバ
60 検索部
62 表示部
64 入力部
66 コンテンツ制御部
68 検索制御部
70 オブジェクト制御部
72 オブジェクト表示部
74 オブジェクト操作部
76 オブジェクト管理部
78 オブジェクト情報データベース
80 コンテンツ管理部
82 検索インデックスデータベース
84 コンテンツ情報データベース
86 コンテンツアクセス部
88 表示制御部
90 描画エンジン部
92 入力インターフェース制御部
94 ファイルシステム
102 グループオブジェクト
104 項目オブジェクト
106 キーオブジェクト
108 検索キーボックスオブジェクト
110 リストボックス
10 Mobile electronic communication device 22 CPU
26 Communication Unit 30 Audio Processing Unit 32 Display Device 34 Input Device 36 ROM
38 RAM
40 Internal storage 42 External storage interface 46 External storage 50 Microphone 52 Receiver 60 Search unit 62 Display unit 64 Input unit 66 Content control unit 68 Search control unit 70 Object control unit 72 Object display unit 74 Object operation unit 76 Object management unit 78 Object information Database 80 Content management unit 82 Search index database 84 Content information database 86 Content access unit 88 Display control unit 90 Drawing engine unit 92 Input interface control unit 94 File system 102 Group object 104 Item object 106 Key object 108 Search key box object 110 List box

Claims (16)

画像を表示させる表示部と、
前記表示部により画像が表示された領域に接触することで入力される入力指示を検出する入力検出部と、
他の端末と通信を行う通信部と、
前記入力検出部で検出した入力指示に基づいて制御を行い、かつ、前記表示部に表示させる画像の制御を行う制御部と、を有し、
前記制御部は、前記通信部での通信を行う際のアドレス情報である複数の通信先特定オブジェクトを有するグループオブジェクトと、前記グループオブジェクトの中から前記通信先特定オブジェクトを絞り込む条件を抽象化したキーオブジェクトと、前記キーオブジェクトを複数含むことが可能なキーボックスオブジェクトとを前記表示部により画面に表示させている状態で、前記キーボックスオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、
前記キーボックスオブジェクトに含まれるキーオブジェクトに対する論理演算結果を求め、
前記グループオブジェクト内の各通信先特定オブジェクトの前記論理演算の結果に対する適合率を求め、
前記算出した適合率の範囲を満足する通信先特定オブジェクトを、前記グループオブジェクト内の通信先特定オブジェクトから抽出して前記表示部の画面に表示させ、さらに、当該抽出された通信先特定オブジェクトの1つが選択され、決定される指示が入力されたことを前記入力検出部が検出したら、選択された通信先特定オブジェクトの対応付けられたアドレス情報に基づいて前記通信部での通信を開始させることを特徴とする通信機器。
A display for displaying an image;
An input detection unit that detects an input instruction input by touching a region where an image is displayed by the display unit;
A communication unit that communicates with other terminals;
A control unit that performs control based on an input instruction detected by the input detection unit, and that controls an image to be displayed on the display unit,
The control unit is a key that abstracts a group object having a plurality of communication destination identification objects that are address information when performing communication in the communication unit, and a condition for narrowing down the communication destination identification object from the group objects In the state in which an object and a key box object that can include a plurality of key objects are displayed on the screen by the display unit, the input detection unit is configured to contact the key box object and to move in the contact state. Is detected,
Obtaining a logical operation result for the key object included in the key box object;
Obtaining a matching rate for the result of the logical operation of each communication destination specific object in the group object;
A communication destination specifying object satisfying the calculated range of the relevance ratio is extracted from the communication destination specifying object in the group object and displayed on the screen of the display unit, and further, one of the extracted communication destination specifying objects is displayed. When the input detection unit detects that an instruction to be selected and an instruction to be determined has been input, communication with the communication unit is started based on address information associated with the selected communication destination specific object. A featured communication device.
画像を表示させる表示部と、
前記表示部により画像が表示された領域に接触することで入力される入力指示を検出する入力検出部と、
前記入力検出部で検出した入力指示に基づいて制御を行い、かつ、前記表示部に表示させる画像の制御を行う制御部と、を有し、
前記制御部は、複数の項目オブジェクトを有するグループオブジェクトと、前記グループオブジェクトの中から前記項目オブジェクトを絞り込む条件を抽象化したキーオブジェクトと、前記キーオブジェクトを複数含むことが可能なキーボックスオブジェクトとを前記表示部により画面に表示させている状態で、前記キーボックスオブジェクトへの接触及び接触状態での移動指示を前記入力検出部が検出したら、
前記キーボックスオブジェクトに含まれるキーオブジェクトに対する論理演算結果を求め、
前記グループオブジェクト内の各項目オブジェクトの前記論理演算の結果に対する適合率を求め、
前記算出した適合率の範囲を満足する項目オブジェクトを、前記グループオブジェクト内の項目オブジェクトから抽出して前記表示部の画面に表示させることを特徴とする携帯電子機器。
A display for displaying an image;
An input detection unit that detects an input instruction input by touching a region where an image is displayed by the display unit;
A control unit that performs control based on an input instruction detected by the input detection unit, and that controls an image to be displayed on the display unit,
The control unit includes a group object having a plurality of item objects, a key object that abstracts a condition for narrowing down the item objects from the group object, and a key box object that can include a plurality of the key objects. When the input detection unit detects a contact with the key box object and a movement instruction in the contact state in a state of being displayed on the screen by the display unit,
Obtaining a logical operation result for the key object included in the key box object;
Obtaining the precision of the result of the logical operation of each item object in the group object;
A portable electronic device, wherein an item object that satisfies the calculated range of precision is extracted from an item object in the group object and displayed on the screen of the display unit.
前記制御部は、前記入力検出部により前記キーボックスオブジェクトに所定の第1の入力操作が行われたことを検出したら、前記キーボックスオブジェクトに含まれる複数のキーオブジェクトに対して実行する論理演算を現在設定されている演算式から他の演算式に設定変更する制御を行うことを特徴とする請求項2記載の携帯電子機器。   When the control unit detects that a predetermined first input operation has been performed on the key box object by the input detection unit, the control unit performs a logical operation to be performed on a plurality of key objects included in the key box object. The portable electronic device according to claim 2, wherein control is performed to change the setting from the currently set arithmetic expression to another arithmetic expression. 前記制御部は、前記入力検出部により前記キーボックスオブジェクトに所定の第2の入力操作が行われたことを検出したら、前記キーボックスオブジェクトに含まれるキーオブジェクトを前記表示部により画面に表示させ、表示されたキーオブジェクトのいずれかが選択されたことを検出したら、当該キーオブジェクトを前記キーボックスオブジェクトから削除する制御を行うことを特徴とする請求項2または3に記載の携帯電子機器。   When the control unit detects that a predetermined second input operation has been performed on the key box object by the input detection unit, the control unit displays the key object included in the key box object on the screen by the display unit, 4. The portable electronic device according to claim 2, wherein when it is detected that any one of the displayed key objects is selected, control is performed to delete the key object from the key box object. 前記制御部は、前記キーオブジェクトを前記表示部により画面に表示させている状態で、前記入力検出部により前記キーオブジェクトが前記キーボックスオブジェクトの表示領域内に移動されたことを検出したら、当該キーオブジェクトを前記キーボックスオブジェクトに含める制御を行うことを特徴とする請求項2から4のいずれか1項に記載の携帯電子機器。   When the control unit detects that the key object is moved into the display area of the key box object by the input detection unit while the key object is displayed on the screen by the display unit, the key unit 5. The portable electronic device according to claim 2, wherein control for including an object in the key box object is performed. 前記制御部は、前記入力検出部により前記キーボックスオブジェクトが移動された量を検出し、
前記キーボックスオブジェクトが移動された量に基づいて抽出する項目オブジェクトの前記適合率の範囲を算出する制御を行うことを特徴とする請求項2から5のいずれか1項に記載の携帯電子機器。
The control unit detects an amount by which the key box object is moved by the input detection unit,
6. The portable electronic device according to claim 2, wherein control for calculating a range of the relevance ratio of an item object to be extracted based on an amount of movement of the key box object is performed.
前記制御部は、抽出した項目オブジェクトの集合を新たなグループオブジェクトとすることを特徴とする請求項2から6のいずれか1項に記載の携帯電子機器。   The portable electronic device according to claim 2, wherein the control unit sets a set of extracted item objects as a new group object. 前記制御部は、前記グループオブジェクトに含まれる項目オブジェクトを前記表示部に表示させ、前記抽出された項目オブジェクトを前記キーオブジェクトの近傍に表示させることを特徴とする請求項2から7のいずれか1項に記載の携帯電子機器。   The said control part displays the item object contained in the said group object on the said display part, The said extracted item object is displayed on the vicinity of the said key object, The any one of Claim 2 to 7 characterized by the above-mentioned. The portable electronic device according to Item. 前記制御部は、前記キーオブジェクトと前記グループオブジェクトとの距離に応じて算出する適合率の範囲を変動させ、
前記距離が近いほど前記適合率の低い項目オブジェクトも含めて抽出し、前記距離が遠いほど前記適合率の高い項目オブジェクトだけを抽出することを特徴とする請求項2から8のいずれか1項に記載の携帯電子機器。
The control unit varies the range of the precision that is calculated according to the distance between the key object and the group object,
9. The item object according to any one of claims 2 to 8, wherein the item objects having a lower relevance ratio are extracted as the distance is shorter, and only the item objects having a higher relevance ratio are extracted as the distance is longer. The portable electronic device described.
前記制御部は、前記キーオブジェクトの前記グループオブジェクトの表示領域内での移動距離に応じて、抽出する項目オブジェクトの前記適合率の範囲を算出し、
前記移動距離が長いほど前記適合率の低い項目オブジェクトも含めて抽出し、前記移動距離が短いほど前記適合率の高い項目オブジェクトだけを抽出することを特徴とする請求項2から9のいずれか1項に記載の携帯電子機器。
The control unit calculates a range of the relevance ratio of the item object to be extracted according to a moving distance of the key object in the display area of the group object,
10. The item object having a lower relevance ratio is extracted as the moving distance is longer, and only the item object having a higher relevance ratio is extracted as the movement distance is shorter. The portable electronic device according to Item.
前記制御部は、前記キーオブジェクトが選択された状態、なおかつ、当該状態の時点での前記適合率の範囲に基づいて項目オブジェクトの抽出が行われている状態で、前記入力検出部で前記キーオブジェクトへのタップが検出されたら、
抽出する項目オブジェクトの適合率の範囲を当該タップ発生前よりも狭くすることを特徴とする請求項10に記載の携帯電子機器。
In the state where the key object is selected and the item object is extracted based on the range of the relevance ratio at the time of the state, the control unit is configured to perform the key object in the input detection unit. When a tap to is detected,
11. The portable electronic device according to claim 10, wherein the range of the relevance ratio of the item object to be extracted is narrower than that before the occurrence of the tap.
前記制御部は、タップ時間が長いほど、抽出する項目オブジェクトの適合率の範囲をより狭くすることを特徴とする請求項11に記載の携帯電子機器。   The portable electronic device according to claim 11, wherein the control unit narrows the range of the matching rate of the item object to be extracted as the tap time is longer. 前記制御部は、タップ回数が多いほど、抽出する項目オブジェクトの適合率の範囲をより狭くすることを特徴とする請求項11に記載の携帯電子機器。   The portable electronic device according to claim 11, wherein the control unit narrows the range of the matching rate of the item object to be extracted as the number of taps increases. 前記制御部は、前記グループオブジェクトに含まれる前記項目オブジェクトの数が多いほど当該グループオブジェクトを前記表示部に大きく表示し、前記グループオブジェクトに含まれる前記項目オブジェクトの数が少ないほど、当該グループオブジェクトを前記表示部に小さく表示することを特徴とする請求項2から13のいずれか1項に記載の携帯電子機器。   The control unit displays the group object larger on the display unit as the number of the item objects included in the group object is larger, and displays the group object as the number of the item objects included in the group object is smaller. The portable electronic device according to claim 2, wherein the portable electronic device displays a small size on the display unit. 前記制御部は、前記グループオブジェクトの外周に輪郭線を付けて前記表示部に表示させることを特徴とする請求項2から14のいずれか1項に記載の携帯電子機器。   The portable electronic device according to any one of claims 2 to 14, wherein the control unit adds an outline to an outer periphery of the group object and displays the outline on the display unit. 前記入力検出部は、前記表示部の前面に配置された接触センサであり、
前記表示部に負荷された力を入力として検出し、
前記制御部は、負荷が入力された位置と前記表示部に表示させている画像とを対応付けて、操作されたキーオブジェクトを判定することを特徴とする請求項2から15のいずれか1項に記載の携帯電子機器。
The input detection unit is a contact sensor disposed on the front surface of the display unit,
Detecting the force applied to the display as an input,
16. The control unit according to any one of claims 2 to 15, wherein the control unit determines an operated key object by associating a position where a load is input with an image displayed on the display unit. The portable electronic device as described in.
JP2009177094A 2009-06-26 2009-07-29 Communication equipment and portable electronic equipment Expired - Fee Related JP5254148B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009177094A JP5254148B2 (en) 2009-07-29 2009-07-29 Communication equipment and portable electronic equipment
PCT/JP2010/060902 WO2010150893A1 (en) 2009-06-26 2010-06-25 Communication device and electronic device
US13/380,691 US9626094B2 (en) 2009-06-26 2010-06-25 Communication device and electronic device
EP10792211.4A EP2447857A4 (en) 2009-06-26 2010-06-25 Communication device and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009177094A JP5254148B2 (en) 2009-07-29 2009-07-29 Communication equipment and portable electronic equipment

Publications (2)

Publication Number Publication Date
JP2011034151A true JP2011034151A (en) 2011-02-17
JP5254148B2 JP5254148B2 (en) 2013-08-07

Family

ID=43763193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009177094A Expired - Fee Related JP5254148B2 (en) 2009-06-26 2009-07-29 Communication equipment and portable electronic equipment

Country Status (1)

Country Link
JP (1) JP5254148B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233626A (en) * 2002-02-06 2003-08-22 Just Syst Corp Association presence/absence display device, association presence/absence display method and program for implementing the method on computer
JP2008097175A (en) * 2006-10-10 2008-04-24 Fuji Xerox Co Ltd Electronic file retrieving device
WO2009020103A1 (en) * 2007-08-03 2009-02-12 Loilo Inc Interface system for editing video data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233626A (en) * 2002-02-06 2003-08-22 Just Syst Corp Association presence/absence display device, association presence/absence display method and program for implementing the method on computer
JP2008097175A (en) * 2006-10-10 2008-04-24 Fuji Xerox Co Ltd Electronic file retrieving device
WO2009020103A1 (en) * 2007-08-03 2009-02-12 Loilo Inc Interface system for editing video data

Also Published As

Publication number Publication date
JP5254148B2 (en) 2013-08-07

Similar Documents

Publication Publication Date Title
WO2010150893A1 (en) Communication device and electronic device
US10169431B2 (en) Device, method, and graphical user interface for mapping directions between search results
TWI506247B (en) Method and device for displaying geographic position
CN104487929B (en) For contacting the equipment for carrying out display additional information, method and graphic user interface in response to user
KR101579345B1 (en) Device, method, and graphical user interface for mapping directions between search results
WO2016019925A1 (en) Search method, server and client
US8621391B2 (en) Device, method, and computer readable medium for maintaining a selection order in a displayed thumbnail stack of user interface elements acted upon via gestured operations
CN107491257A (en) For accessing the apparatus and method of common equipment function
JP6025483B2 (en) Display control device, image display device, and program
CN104156142A (en) Portable touch screen device, method, and graphical user interface for using emoji characters
WO2019104478A1 (en) Method and terminal for recognizing screenshot text
US20100273139A1 (en) Method and system for providing an answer
JP2013225226A (en) Information terminal, display control program and display control method
JP5254147B2 (en) Communication equipment and portable electronic equipment
JP5254137B2 (en) Mobile communication device and communication device
CN105393201A (en) Device, method, and graphical user interface for managing concurrently open software applications
CN110263077A (en) Method, mobile terminal and the storage medium of file in a kind of acquisition mobile terminal
CN113836089A (en) Application program display method and device, electronic equipment and readable storage medium
US8896554B2 (en) Data retrieval apparatus and data retrieval method
JP5254148B2 (en) Communication equipment and portable electronic equipment
JP5254892B2 (en) Mobile communication device and communication device
CN102169382B (en) For revising the method for user interface behavior, device and multifunctional equipment
JP2009015506A (en) Display device, display method, display device control program, and computer readable recording medium with program recorded
TW201426410A (en) Method and system for managing buttons connected to electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130417

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5254148

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees