JP5050153B2 - Website search system - Google Patents

Website search system Download PDF

Info

Publication number
JP5050153B2
JP5050153B2 JP2009007139A JP2009007139A JP5050153B2 JP 5050153 B2 JP5050153 B2 JP 5050153B2 JP 2009007139 A JP2009007139 A JP 2009007139A JP 2009007139 A JP2009007139 A JP 2009007139A JP 5050153 B2 JP5050153 B2 JP 5050153B2
Authority
JP
Japan
Prior art keywords
keyword
icon
website
display area
mother
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009007139A
Other languages
Japanese (ja)
Other versions
JP2009134738A (en
Inventor
ロベルト ロペス
知裕 佐藤
博子 栃木
雅実 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2009007139A priority Critical patent/JP5050153B2/en
Publication of JP2009134738A publication Critical patent/JP2009134738A/en
Application granted granted Critical
Publication of JP5050153B2 publication Critical patent/JP5050153B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

この発明はウェブサイト検索システムに関し、特にたとえば、人間が大画面スクリーンの前に立ち人間の手でタッチすることによって大画面上の座標を獲得できる大画面タッチパネルを利用して、インタネットのウェブサイトを検索する検索システムに関する。   The present invention relates to a website search system, and more particularly, for example, an Internet website is created using a large screen touch panel that allows a human to acquire coordinates on a large screen by standing in front of the large screen and touching with a human hand. The present invention relates to a search system for searching.

従来、インタネットのウェブサイト(Website)を検索するために数多くの検索エンジンが実用に供されている。   Conventionally, a number of search engines have been put into practical use for searching Internet websites.

従来の検索エンジンでは、キーワードを入力しなければ検索できず、したがって、1つのキーワードで検索した後に検索範囲を絞り込むときには、論理積結合した2つ以上のキーワードを入力し直す必要がある。   In a conventional search engine, a search cannot be performed unless a keyword is input. Therefore, when a search range is narrowed down after searching with one keyword, it is necessary to re-input two or more keywords that are logically connected.

したがって、目的の検索結果を得るまでにはキーワードの入力を繰り返す必要があり、手間がかかるという問題がある。   Therefore, it is necessary to repeat the input of keywords until the desired search result is obtained, which is troublesome.

それゆえに、この発明の主たる目的は、簡単に検索範囲を絞り込むことができる、ウェブサイト検索システムを提供することである。   Therefore, a main object of the present invention is to provide a website search system capable of easily narrowing a search range.

請求項1の発明は、キーワード表示領域および画像表示領域を含むタッチパネルを用いたウェブサイト検索システムであって、手でタッチされた、キーワード表示領域に表示されているキーワードを検索キーワードとして受け付ける受付手段、受付手段が受け付けたキーワードに対応する第1マザーアイコンを画像表示領域に表示する第1アイコン表示手段、受付手段による受け付けに応じて受け付けた当該キーワードに従って検索エンジンでウェブサイトを検索する第1検索手段、第1検索手段によって検索されたウェブサイトのサムネイル画像を表示領域に表示された第1マザーアイコンの周囲に表示する第1サムネイル表示手段、第1マザーアイコンのドラッグによる当該第1マザーアイコンの位置の変更を受け付ける変更受付手段、変更受付手段によって位置の変更が受け付けられた第1マザーアイコンと他の第2のマザーアイコンとが接近しているか否かを、第1マザーアイコンと第2マザーアイコンの間の距離が所定値より小さくなったか否かに基づいて判断する接近判断手段、接近判断手段が接近していると判断したとき、第1マザーアイコンに対応するキーワードと第2マザーアイコンに対応するキーワードとの論理積を検索キーワードとして設定する設定手段、設定手段による設定に応じて設定された当該キーワードに従って検索エンジンでウェブサイトを検索する第2検索手段、第2検索手段によって検索されたウェブサイトのサムネイル画像を画像表示領域に表示する第2サムネイル表示手段、画像表示領域に表示されたウェブサイトのサムネイル画像が手でタッチされたか否かを判断するタッチ判断手段、タッチ判断手段がタッチされたと判断した後、一定の時間が経過する前に手がウェブサイトのサムネイル画像から離されたか否かを判断する離脱判断手段、および離脱判断手段が、一定の時間が経過する前に手がウェブサイトのサムネイル画像から離れたと判断した場合に、当該サムネイル画像を画像表示領域から掃き出す掃出手段を備える、ウェブサイト検索システムである。   The invention of claim 1 is a website search system using a touch panel including a keyword display area and an image display area, and accepting means for accepting a keyword displayed in the keyword display area touched by hand as a search keyword A first icon displaying means for displaying a first mother icon corresponding to the keyword accepted by the accepting means in the image display area; a first search for searching a website by a search engine according to the keyword accepted in accordance with the acceptance by the accepting means Means, first thumbnail display means for displaying thumbnail images of the website searched by the first search means around the first mother icon displayed in the display area, dragging the first mother icon, Change accepting means for accepting a change in position; The distance between the first mother icon and the second mother icon is determined based on whether or not the first mother icon whose position change has been received by the further receiving means is close to another second mother icon. When it is determined that the approach determination means or the approach determination means is approaching based on whether or not it is smaller, the logical product of the keyword corresponding to the first mother icon and the keyword corresponding to the second mother icon is searched. Setting means for setting as a keyword, second search means for searching a website with a search engine according to the keyword set in accordance with the setting by the setting means, and thumbnail images of the website searched by the second search means as image display areas Second thumbnail display means for displaying the thumbnail image of the website displayed in the image display area. Touch determining means for determining whether or not a touch has been made, and a leaving determination means for determining whether or not a hand has been released from a thumbnail image of a website before a predetermined time has elapsed after determining that the touch determining means has been touched The website search system includes a sweeping unit that sweeps out the thumbnail image from the image display area when the determination unit determines that the hand has left the thumbnail image of the website before a predetermined time elapses. is there.

請求項1の発明は、たとえば大画面タッチパネルを用いるウェブサイト検索システムである。この大画面タッチパネルは、スクリーンの前方に人間が立って、人間が手によってスクリーンに直接タッチすると、その手や人間の体によって遮光領域が形成され、その手による遮光領域のたとえば中心座標が、スクリーン上の手のタッチ位置として検出される。   The invention of claim 1 is a website search system using, for example, a large screen touch panel. In this large screen touch panel, when a person stands in front of the screen and the person directly touches the screen with a hand, a light shielding area is formed by the hand or the human body, and the center coordinates of the light shielding area by the hand are, for example, It is detected as the touch position of the upper hand.

キーワードを入力することによってスクリーン上にそのキーワードを表すマザーアイコンを表示するとともに、検索エンジンを用いてそのキーワードで検索したウェブサイトのサムネイル画像をマザーアイコンの周囲に子アイコンとして順次表示する。スクリーン上において2つのマザーアイコンが接近されると、たとえばコンピュータで構成されるキーワード更新手段が、たとえばキーワードAとキーワードBとの論理積A*Bでキーワードを更新する。したがって、検索エンジンは、そのキーワードA*Bで新たにウェブサイトの検索を実行する。   By inputting a keyword, a mother icon representing the keyword is displayed on the screen, and thumbnail images of websites searched by the keyword using a search engine are sequentially displayed as child icons around the mother icon. When two mother icons are brought close to each other on the screen, for example, a keyword updating unit configured by a computer updates the keyword by, for example, a logical product A * B of the keyword A and the keyword B. Therefore, the search engine newly searches the website with the keyword A * B.

請求項の2の発明は、大画面タッチパネルの具体的構成に向けられるものであり、スクリーンは大画面タッチパネルのスクリーンであり、大画面タッチパネルは赤外光を透過できる材料からなるスクリーン、スクリーンの前方からスクリーンの前面に赤外光を照射する赤外光源、スクリーンの後方に設けられてスクリーンの背面を撮影する赤外カメラ、および赤外カメラからの映像信号を受けるコンピュータを含み、コンピュータは、映像信号に基づいてスクリーンにタッチしている手の位置を検出するとともに、手でマザーアイコンにタッチした状態でその手を動かすことによってマザーアイコンをドラッグする、請求項1記載のウェブサイト検索システムである。   The invention of claim 2 is directed to a specific configuration of a large screen touch panel, the screen is a screen of a large screen touch panel, the large screen touch panel is a screen made of a material that can transmit infrared light, and the front of the screen. An infrared light source that irradiates the front surface of the screen with infrared light, an infrared camera that is provided behind the screen and captures the back surface of the screen, and a computer that receives video signals from the infrared camera. The website search system according to claim 1, wherein the position of the hand touching the screen is detected based on the signal, and the mother icon is dragged by moving the hand while touching the mother icon with the hand. .

請求項2の発明では、大画面スクリーン上で、手でアイコンを操作するので、たとえばイベント会場などにおいて大勢の人間にその検索結果を見せたいとき、手だけでキーワードが設定できるので、スクリーンを見ている人間にもキーワードの設定が非常にわかり易いい。   In the invention of claim 2, since the icon is operated by hand on the large screen, for example, when it is desired to show the search results to a large number of people at an event venue, the keyword can be set only by hand. It is very easy for humans to understand the keyword settings.

請求項3の発明は、キーワード表示領域および画像表示領域を含むタッチパネルを用いたウェブサイト検索方法であって、(a)手でタッチされた、キーワード表示領域に表示されているキーワードを検索キーワードとして受け付けるステップ、(b)ステップ(a)において受け付けたキーワードに対応する第1マザーアイコンを画像表示領域に表示するステップ、(c)ステップ(a)における受け付けに応じて受け付けた当該キーワードに従って検索エンジンでウェブサイトを検索するステップ、(d)ステップ(c)において検索されたウェブサイトのサムネイル画像を第1マザーアイコンの周囲に表示するステップ、(e)第1マザーアイコンのドラッグによる当該第1マザーアイコンの位置の変更を受け付けるステップ、(f)ステップ(e)において位置の変更が受け付けられた第1マザーアイコンと他の第2のマザーアイコンとが接近しているか否かを、第1マザーアイコンと第2マザーアイコンの間の距離が所定値より小さくなったか否かに基づいて判断するステップ、(g)ステップ(f)において接近していると判断したとき、第1マザーアイコンに対応するキーワードと第2マザーアイコンに対応するキーワードとの論理積を検索キーワードとして設定するステップ、(h)ステップ(g)における設定に応じて設定された当該キーワードに従って検索エンジンでウェブサイトを検索するステップ、(i)ステップ(h)において検索されたウェブサイトのサムネイル画像を画像表示領域に表示する第2サムネイル表示ステップ、(j)画像表示領域に表示されたウェブサイトのサムネイル画像が手でタッチされたか否かを判断するタッチ判断ステップ、(k)タッチ判断ステップ(j)においてタッチされたと判断した後、一定の時間が経過する前に手がウェブサイトのサムネイル画像から離されたか否かを判断する離脱判断ステップ、および(l)離脱判断ステップ(k)において、一定の時間が経過する前に手がウェブサイトのサムネイル画像から離れたと判断した場合に、当該サムネイル画像を画像表示領域から掃き出す掃出ステップを含む、ウェブサイト検索方法である。   The invention of claim 3 is a website search method using a touch panel including a keyword display area and an image display area, wherein (a) a keyword displayed in the keyword display area touched by hand is used as a search keyword. (B) a step of displaying a first mother icon corresponding to the keyword received in step (a) in the image display area; (c) a search engine according to the keyword received in response to the reception in step (a); (D) a step of searching for a website, (d) a step of displaying thumbnail images of the website searched in step (c) around the first mother icon, (e) the first mother icon by dragging the first mother icon A step of accepting a change in the position of (f) The distance between the first mother icon and the second mother icon is a predetermined value as to whether or not the first mother icon whose position change has been accepted in step (e) is close to another second mother icon. A step of judging based on whether or not it is smaller; (g) a logic of a keyword corresponding to the first mother icon and a keyword corresponding to the second mother icon when it is judged that they are approaching in step (f) A step of setting a product as a search keyword, (h) a step of searching a website with a search engine according to the keyword set according to the setting in step (g), and (i) a website searched in step (h) A second thumbnail display step for displaying the thumbnail images of the image in the image display area; A touch determination step for determining whether or not the thumbnail image of the selected website has been touched by a hand; (k) after determining that a thumbnail has been touched in the touch determination step (j), In the leaving determination step for determining whether or not the thumbnail image of the site has been released, and (l) the leaving determination step (k), when it is determined that the hand has left the thumbnail image of the website before a certain period of time has elapsed The website search method includes a sweeping step of sweeping out the thumbnail image from the image display area.

この発明によれば、スクリーン上に表示された2つのマザーアイコンを近づけるだけで2つのキーワードの論理積で検索が行なわれるため、従来の一般的な検索エンジンのように、検索対象を絞り込むときにキーワードを入力し直す必要がなく、より効率的にウェブサイトの検索を行なうことができる。   According to the present invention, the search is performed by the logical product of the two keywords simply by bringing the two mother icons displayed on the screen close to each other. Therefore, when the search target is narrowed down as in the conventional general search engine. There is no need to re-enter keywords, and the website can be searched more efficiently.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のウェブサイト検索システムを示す図解図である。FIG. 1 is an illustrative view showing a website search system according to an embodiment of the present invention. 図2は図1の実施例のブロック図である。FIG. 2 is a block diagram of the embodiment of FIG. 図3は図1の実施例においてプラスチックスクリーンの前方の人間が手でスクリーンにタッチしたときの実際の映像を示す。FIG. 3 shows an actual image when a person in front of the plastic screen touches the screen with a hand in the embodiment of FIG. 図4はスクリーンにタッチした手によって作られた黒領域の一例を示す図解図である。FIG. 4 is an illustrative view showing an example of a black region created by a hand touching the screen. 図5は図1の実施例においてスクリーンに形成される3つの表示領域を示す図解図である。FIG. 5 is an illustrative view showing three display areas formed on the screen in the embodiment of FIG. 図6はスクリーン上でのズームアップ動作やブックマーク登録動作を示す図解図である。FIG. 6 is an illustrative view showing a zoom-up operation and a bookmark registration operation on the screen. 図7はスクリーン上でのドラッグ動作を示す図解図である。FIG. 7 is an illustrative view showing a drag operation on the screen. 図8は図1の実施例におけるウェブサイト検索動作を示すフロー図である。FIG. 8 is a flowchart showing the website search operation in the embodiment of FIG. 図9は2つのマザーアイコンを接近させた状態を例示する図解図である。FIG. 9 is an illustrative view illustrating a state in which two mother icons are brought close to each other.

図1に示すこの実施例のウェブサイト検索システム10は、大画面タッチパネルを構成する、たとえば250×180cm程度のサイズのプラスチックスクリーン12を含む。ただし、このサイズは単なる一例であり、用途に応じて任意に変更可能である。プラスチックスクリーン12は、赤外光透過可能材料、たとえばポリカーボネイトなどのプラスチックからなり、全体としてたとえば乳白色である。ただし、このプラスチックスクリーン12は完全な透明ではない。なぜなら、このプラスチックスクリーン12は、後述のプロジェクタ30から映像を映写するための投影スクリーンとして機能する必要があるからである。また、このプラスチックスクリーン12は、比較的大きい剛性を有する。なぜなら、この大画面タッチパネルシステム10では、図1に示すように、プラスチックスクリーン12の前方の人間14が、自分の手16でプラスチックスクリーン12を直接タッチすることによって、プラスチックスクリーン12の上の位置(点または領域)を指示するからである。つまり、プラスチックスクリーン12には人間の手が触っても容易には変形しない程度の剛性が必要である。   A website search system 10 of this embodiment shown in FIG. 1 includes a plastic screen 12 having a size of, for example, about 250 × 180 cm, constituting a large screen touch panel. However, this size is merely an example and can be arbitrarily changed according to the application. The plastic screen 12 is made of a material that can transmit infrared light, for example, plastic such as polycarbonate, and is generally milky white, for example. However, the plastic screen 12 is not completely transparent. This is because the plastic screen 12 needs to function as a projection screen for projecting an image from the projector 30 described later. The plastic screen 12 has a relatively large rigidity. This is because, in this large screen touch panel system 10, as shown in FIG. 1, a person 14 in front of the plastic screen 12 directly touches the plastic screen 12 with his / her hand 16, thereby This is because a point or a region is designated. That is, the plastic screen 12 needs to have a rigidity that does not easily deform even when a human hand touches it.

ただし、実施例ではプラスチックでスクリーン12を形成した。しかしながら、ガラスや他の赤外光透過材料が用いられてもよい。   However, in the example, the screen 12 was formed of plastic. However, glass or other infrared light transmissive materials may be used.

このプラスチックスクリーン12の前方上方には、スクリーン12の前面12aの全面に赤外光を投射するための赤外光源18が設けられる。この赤外光源18としては、ハロゲンランプまたはブラックライトなどが利用可能である。この赤外光源18を設ける位置は基本的にはプラスチックスクリーン12のサイズに依存して決定されるが、実施例のプラスチックスクリーン12が上記サイズであれば、たとえば、赤外光源18は、プラスチックスクリーン12の前面12aから200−400cm離れた高さ200−300cmの位置に配置される。これらの数値は単なる例示である。赤外光源18から投射された赤外光はプラスチックスクリーン12の前面12aから入射し、このスクリーン12を透過して背面12bに至る。   An infrared light source 18 for projecting infrared light onto the entire front surface 12 a of the screen 12 is provided above the plastic screen 12. As the infrared light source 18, a halogen lamp or black light can be used. The position where the infrared light source 18 is provided is basically determined depending on the size of the plastic screen 12. If the plastic screen 12 of the embodiment is the above size, for example, the infrared light source 18 may be a plastic screen. The twelve front surfaces 12a are arranged at a height of 200-300 cm, which is 200-400 cm apart. These numbers are merely illustrative. Infrared light projected from the infrared light source 18 enters from the front surface 12a of the plastic screen 12, passes through the screen 12, and reaches the back surface 12b.

プラスチックスクリーン12の後方には、ミラー20が設けられる。このミラー20はプラスチックスクリーン12の背面12bの全面を映出できる大きさにされかつその位置に配置される。実施例ではプラスチックスクリーン12がたとえば250×180cmであれば、ミラー20はたとえば150×110cm程度の大きさにされ、プラスチックスクリーン12の背面12bからたとえば200cm後方に配置される。これらの数値も単なる例示である。   A mirror 20 is provided behind the plastic screen 12. The mirror 20 is sized so as to be able to project the entire back surface 12b of the plastic screen 12, and is disposed at that position. In the embodiment, if the plastic screen 12 is, for example, 250 × 180 cm, the mirror 20 has a size of, for example, about 150 × 110 cm, and is disposed, for example, 200 cm behind the back surface 12b of the plastic screen 12. These numbers are also merely examples.

プラスチックスクリーン12の後方には、このミラー20の表面に合焦されたモノクロカメラ22が設けられる。このモノクロカメラ22には赤外フィルタ24が装着される。したがって、このカメラ22は全体としては、赤外カメラとして機能する。そのため、モノクロカメラ22および赤外フィルタ24は赤外カメラに代えられてもよい。このカメラ22はミラー20を通してプラスチックスクリーン12の背面全面を撮影する。   Behind the plastic screen 12, a monochrome camera 22 focused on the surface of the mirror 20 is provided. An infrared filter 24 is attached to the monochrome camera 22. Therefore, the camera 22 functions as an infrared camera as a whole. Therefore, the monochrome camera 22 and the infrared filter 24 may be replaced with an infrared camera. The camera 22 photographs the entire back surface of the plastic screen 12 through the mirror 20.

カメラ22からの映像信号は、図2からよくわかるように、A/D変換器28によって映像信号データに変換されて、コンピュータ26に入力される。   The video signal from the camera 22 is converted into video signal data by the A / D converter 28 and input to the computer 26, as can be seen from FIG.

この図1に示す実施例では、プラスチックスクリーン12の後方に、プロジェクタ30が設けられる。このプロジェクタ30は、前述のようにプラスチックスクリーン12の背面12bの全面に映像を投射するためのものである。実施例では、プロジェクタ30は、ミラー20を通して、背面12bの全面に投影できるようにされる。プロジェクタ30から投射された映像(光学像)は、ミラー20で反射されて、プラスチックスクリーン12の背面12bに投影される。したがって、このプラスチックスクリーン12の前面12aから、その投影された映像を見ることができる。   In the embodiment shown in FIG. 1, a projector 30 is provided behind the plastic screen 12. The projector 30 is for projecting an image on the entire back surface 12b of the plastic screen 12 as described above. In the embodiment, the projector 30 can project onto the entire surface of the back surface 12 b through the mirror 20. The image (optical image) projected from the projector 30 is reflected by the mirror 20 and projected onto the back surface 12 b of the plastic screen 12. Therefore, the projected image can be seen from the front surface 12a of the plastic screen 12.

なお、ミラー20を用いる理由は、プラスチックスクリーン12の後方のスペースを可及的小さくするためである。したがって、当然のことではあるが、ミラー20を省略することができる。この場合には、上述のカメラ22がプラスチックスクリーン12の背面12bの全域を直接撮影し、プロジェクタ30からプロジェクタスクリーン12の背面12bに映像が直接投射される。   The reason for using the mirror 20 is to make the space behind the plastic screen 12 as small as possible. Therefore, as a matter of course, the mirror 20 can be omitted. In this case, the above-described camera 22 directly captures the entire area of the back surface 12b of the plastic screen 12, and an image is directly projected from the projector 30 onto the back surface 12b of the projector screen 12.

図2に示すように、コンピュータ26にはたとえば半導体メモリやハードディスクなどの内部メモリ32が内蔵されるとともに、必要に応じて、メモリインタフェース34を介して、半導体メモリである外部メモリ36が接続される。内部メモリ32は、後述のフロー図に示すようなプログラムを予め記憶するプログラムメモリとして、さらには画像処理のためのワーキングメモリやレジスタなどとして利用される。プロジェクタ30を用いる場合には、内部メモリ32はさらに、プロジェクタ30のためのビデオメモリ(VRAM)としても用いられる。   As shown in FIG. 2, an internal memory 32 such as a semiconductor memory or a hard disk is built in the computer 26, and an external memory 36, which is a semiconductor memory, is connected via a memory interface 34 as necessary. . The internal memory 32 is used as a program memory for previously storing a program as shown in a flowchart described later, and further as a working memory or a register for image processing. When the projector 30 is used, the internal memory 32 is further used as a video memory (VRAM) for the projector 30.

なお、外部メモリ36としては、半導体メモリ以外に、磁気記録媒体、光学式記録媒体、光磁気記録媒体などが用いられ得るが、ここでは便宜上すべて「メモリ」の用語を使用する。したがって、「メモリ」というときは、あらゆる形式の記憶媒体または記録媒体を指すものと理解されたい。   In addition to the semiconductor memory, a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, or the like can be used as the external memory 36, but the term “memory” is used here for convenience. Therefore, the term “memory” should be understood to refer to any type of storage medium or recording medium.

なお、コンピュータ26は、さらに、ランプドライバ38を制御し、赤外光源18のオン/オフを制御するとともに、必要な場合には、その赤外光源18の輝度を調節する。   The computer 26 further controls the lamp driver 38 to control on / off of the infrared light source 18 and adjusts the luminance of the infrared light source 18 when necessary.

図1実施例の大画面タッチパネルシステム10では、先に概説したように、プラスチックスクリーン12の前方の人間14が、手16でプラスチックスクリーン12を直接タッチすることによって、プラスチックスクリーン12の上の座標位置を指示する。そのタッチ位置の検出方法は、具体的には、同時係属中の特願2003−116122号に詳細に説明されるので、引用によってその説明を取り入れるが、ここでは簡単にその原理を説明する。   In the large-screen touch panel system 10 of FIG. 1 embodiment, as outlined above, the human 14 in front of the plastic screen 12 directly touches the plastic screen 12 with the hand 16 so that the coordinate position on the plastic screen 12 is reached. Instruct. The method of detecting the touch position is specifically described in detail in Japanese Patent Application No. 2003-116122, which is currently pending, and the description thereof will be incorporated by reference. However, the principle will be briefly described here.

プラスチックスクリーン12の前に人間が立って、その手16で、図1に示すようにプラスチックスクリーン12の前面12aの任意の場所を押さえ(タッチし)、その状態で、コンピュータ26は、赤外線カメラ22からの図3に示すような映像のピクセルデータを取り込む。そして、コンピュータ26は、このピクセルデータを処理することによって、たとえば図4に示す適正サイズの黒領域のデータのみを残し、残った適正黒領域の中心座標をタッチ点(または領域)のデータとして、検出する。   A human stands in front of the plastic screen 12 and presses (touches) an arbitrary place on the front surface 12a of the plastic screen 12 with its hand 16 as shown in FIG. The pixel data of the video as shown in FIG. Then, the computer 26 processes the pixel data to leave only the data of the appropriate size black area shown in FIG. 4, for example, and uses the remaining center coordinates of the appropriate black area as touch point (or area) data. To detect.

ただし、スクリーン12を同時にタッチする手が2つ以上であっても、コンピュータ26はそれぞれの手のタッチ位置を個別に同定することができる。   However, even if there are two or more hands touching the screen 12 at the same time, the computer 26 can individually identify the touch position of each hand.

そして、コンピュータ26は、モデムなどを含むインタフェース38を介してインタネット40に接続できるようにされている。また、このコンピュータ26の内部メモリ32には、マルチエンジン検索プログラム42が予め組み込まれている。このマルチエンジン検索プログラム42を使うことによって、コンピュータ26は多数のインタネット検索エンジンを同時に起動してウェブサイトを検索することができる。   The computer 26 can be connected to the Internet 40 via an interface 38 including a modem. A multi-engine search program 42 is preinstalled in the internal memory 32 of the computer 26. By using the multi-engine search program 42, the computer 26 can search a website by simultaneously starting a number of Internet search engines.

図1に示すシステム10を用いてウェブサイトを検索するとき、スクリーン12上のキーワード領域44に予め登録されているキーワード“A”,“B”,…のどれかをユーザが片手でタッチすることによって検索キーワードを選択指定する。キーワードが指定されると、キーワード領域44にキーワードとともに登録されている画像がキーワードアイコンまたはマザーアイコンMIとしてスクリーン12の画像表示領域に表示される。そして、コンピュータ26は、マルチエンジン検索プログラム42を用いてその指定されたキーワードに従って検索する。したがって、コンピュータ26にはキーワードに関連して検索されたウェブサイトからサムネイル画像が取り込まれる。各キーワードに関連するウェブサイトのサムネイル画像が、画像表示領域46において、子アイコンCIとしてマザーアイコンMIの周囲に順次表示される。図5は、画像表示領域46に2つのマザーアイコンAおよびBが表示され、各マザーアイコンAおよびBから、子アイコンA1,A2,…およびB1,B2,…が表示されている様子を示している。   When searching for a website using the system 10 shown in FIG. 1, the user touches one of the keywords “A”, “B”,... Registered in the keyword area 44 on the screen 12 with one hand. Select a search keyword with. When a keyword is designated, an image registered with the keyword in the keyword area 44 is displayed in the image display area of the screen 12 as a keyword icon or a mother icon MI. Then, the computer 26 searches using the multi-engine search program 42 according to the designated keyword. Therefore, the thumbnail image is taken into the computer 26 from the website searched in relation to the keyword. Thumbnail images of websites related to each keyword are sequentially displayed around the mother icon MI as child icons CI in the image display area 46. FIG. 5 shows a state in which two mother icons A and B are displayed in the image display area 46, and child icons A1, A2,... And B1, B2,. Yes.

さらに、図5に示すブックマーク領域48は、一般のインタネット検索ソフトでも用いられているブックマーク(お気に入り)と同様に、ウェブサイトのURLを登録するための領域である。   Further, the bookmark area 48 shown in FIG. 5 is an area for registering the URL of the website, similarly to the bookmark (favorite) used in general Internet search software.

このブックマーク領域48へ登録するためには、図6において「ブックマーク登録」と示しているように、画像表示領域46に表示されている子アイコンCIaを片手で一定時間、たとえば2秒以上タッチする。そうすると、コンピュータ26は子アイコンが2秒以上タッチされ続けていることを判断して、その子アイコンCIaを、図6の例では、ブックマーク領域48のブックマークVIIに移動させ、内部メモリ32(図2)にそのブックマーク登録をストアする。   In order to register in the bookmark area 48, as shown as “bookmark registration” in FIG. 6, the child icon CIa displayed in the image display area 46 is touched with one hand for a certain time, for example, 2 seconds or more. Then, the computer 26 determines that the child icon continues to be touched for 2 seconds or more, and moves the child icon CIa to the bookmark VII in the bookmark area 48 in the example of FIG. 6, and the internal memory 32 (FIG. 2). Store the bookmark registration in.

図6には2つのズームアップ、「ズームアップ1」および「ズームアップ2」が図解されているが、「ズームアップ1」は、子アイコンのサムネイル画像を拡大して表示する場合であり、図6の例では、子アイコンCIbが拡大されている。「ズームアップ1」で子アイコンを拡大表示するためには、具体的には、この実施例では、該当の子アイコンCIbを両手で同時にタッチすればよい。なお、ここでいう「両手」には1人の人間の両方の手だけでなく、異なる人間の2つの手も含まれることに留意されたい。ただし、コンピュータ26か「両手」か「片手」かを判別するためには、先に説明した黒領域の大きさを判断すればよい。つまり、黒領域が所定以上の面積のとはき「両手」と、黒領域がそれより小さいときには「片手」と判断すればよい。   FIG. 6 illustrates two zoom-ups, “zoom-up 1” and “zoom-up 2”. “Zoom-up 1” is a case where a thumbnail image of a child icon is enlarged and displayed. In the example of FIG. 6, the child icon CIb is enlarged. In order to enlarge and display a child icon by “zoom up 1”, specifically, in this embodiment, the corresponding child icon CIb may be touched simultaneously with both hands. It should be noted that the “both hands” here include not only both hands of one person but also two hands of different persons. However, in order to determine whether the computer 26 is “both hands” or “one hand”, the size of the black region described above may be determined. That is, it is only necessary to determine that the black area has an area larger than a predetermined area, “two hands”, and if the black area is smaller than that, “one hand”.

また、「ズームアップ2」は、先に説明したブックマーク領域48に登録されているURLをアクセスする場合に使用される方法である。この「ズームアップ2」で登録済みのURLを呼び出すには、具体的には、この実施例では、ブックマーク領域48の該当のブックマーク、図6の例ではブックマークIIを片手でタッチすればよい。   “Zoom-up 2” is a method used when accessing a URL registered in the bookmark area 48 described above. In order to call the URL registered with “Zoom-up 2”, specifically, in this embodiment, the corresponding bookmark in the bookmark area 48, or the bookmark II in the example of FIG. 6 may be touched with one hand.

さらに、画像表示領域46において、サムネイル画像ないしアイコンは、「ドラッグ」の手法を用いてアイコンを移動させることができる。マザーアイコンの場合には、画像表示領域46上においてアイコンを片手でタッチした状態でその手を移動させればよい。子アイコンの場合には、画像表示領域46上においてアイコンを両手で同時にタッチしまま両手を移動させればよい。   Further, in the image display area 46, the thumbnail image or icon can be moved using the “drag” technique. In the case of a mother icon, the hand may be moved while the icon is touched on the image display area 46 with one hand. In the case of a child icon, both hands may be moved while simultaneously touching the icon with both hands on the image display area 46.

このようなウェブサイト検索システム10の検索動作について、図8のフロー図を参照して説明する。   The search operation of the website search system 10 will be described with reference to the flowchart of FIG.

図8の最初のステップS1では、コンピュータ26は、キーワード入力が行なわれたかどうか判断する。具体的には、コンピュータ26は、図5に示すキーワード領域44に予め登録されているキーワードのどれかにユーザの手がタッチしたかどうかを判断する。そして、キーワード領域44のどれかのキーワードがタッチされたとき、コンピュータ26は、ステップS3で、そのキーワードのマザーアイコンMIを作成して、画像表示領域46(図5)へ表示する。ただし、マザーアイコンMIのサムネイル画像は予め準備されているので、ステップS3では、コンピュータ26は、実際には、内部メモリ32または外部メモリ36(図2)に予めストアされているサムネイル画像の画像データを読み出して表示メモリ(VRAM)中に転送するだけでよい。   In the first step S1 of FIG. 8, the computer 26 determines whether or not a keyword is input. Specifically, the computer 26 determines whether or not the user's hand has touched any of the keywords registered in advance in the keyword area 44 shown in FIG. When any keyword in the keyword area 44 is touched, the computer 26 creates a mother icon MI of the keyword and displays it in the image display area 46 (FIG. 5) in step S3. However, since the thumbnail image of the mother icon MI is prepared in advance, in step S3, the computer 26 actually stores the image data of the thumbnail image stored in advance in the internal memory 32 or the external memory 36 (FIG. 2). Need only be read out and transferred into the display memory (VRAM).

ただし、キーワードの入力を音声で行なえるようにしている場合には、図2に示すマイク50を用いる。このマイク50からの音声がA/D変換器52によって音声データに変換され、コンピュータ26に入力される。コンピュータ26には図示しないが内部メモリ32に音声認識機能(アプリケーション)を設定しているので、コンピュータ26はマイク50から入力された音声を認識することによって、キーワードをキーワード領域44から呼び出して、画像表示領域46に表示することができる。   However, when the keyword can be inputted by voice, the microphone 50 shown in FIG. 2 is used. The sound from the microphone 50 is converted into sound data by the A / D converter 52 and input to the computer 26. Although the computer 26 has a voice recognition function (application) set in the internal memory 32 (not shown), the computer 26 recognizes the voice input from the microphone 50, thereby calling a keyword from the keyword area 44, and It can be displayed in the display area 46.

ステップS1でキーワード入力が検出されたとき、ステップS3でそのキーワードのマザーアイコンを画像表示領域46に表示するが、それとともに、コンピュータ26はマルチエンジン検出プログラムを起動して、多数の検索エンジンにそのキーワードを与える。したがって、多数の検索エンジンが同時にそのキーワードでウェブサイトの検索を行い、そのキーワードで検索したウェブサイトのサムネイル画像が図5に示すように、マザーアイコンMIの周りに、順次、子アイコンとして表示される。   When a keyword input is detected in step S1, a mother icon of the keyword is displayed in the image display area 46 in step S3. At the same time, the computer 26 starts a multi-engine detection program and sends it to a number of search engines. Give keywords. Accordingly, a number of search engines search the website with the keyword at the same time, and thumbnail images of the website searched with the keyword are sequentially displayed as child icons around the mother icon MI as shown in FIG. The

なお、具体的には、キーワードが入力されたかどうかを別のルーチンで検出し、その別のルーチンでキーワード入力のイベントが発生したとき、このステップS1で“YES”を判断する。   Specifically, it is detected in another routine whether or not a keyword has been input, and when a keyword input event occurs in the other routine, “YES” is determined in this step S1.

ステップS5ではコンピュータ26はユーザの手がスクリーン26(図1,図5)をタッチしたかどうか判断する。ただし、ステップS1と同様に、手がタッチしたかどうかを別のルーチンで検出し、手検出のイベントが発生したとき、このステップS5で“YES”と判断する。そして、ステップS1と同様に、ステップS5で“NO”が判断されると、ステップS1に戻る。   In step S5, the computer 26 determines whether or not the user's hand has touched the screen 26 (FIGS. 1 and 5). However, as in step S1, whether or not the hand has touched is detected by another routine, and when a hand detection event occurs, “YES” is determined in step S5. Then, as in step S1, if “NO” is determined in step S5, the process returns to step S1.

ステップS7では、スクリーン12にタッチした手のタッチ位置を座標データとして読み取ることによって、その手がどれかのアイコンにタッチしているかどうか判断する。ただし、ここでいう「アイコン」には、画像表示領域46に表示されているアイコンだけでなく、ブックマーク領域48に登録設定されているアイコンも含む。つまり、このステップS7では、手が画像表示領域46のアイコンかまたはブックマーク領域48のアイコンにタッチしているときには、“YES”と判断される。そして、“NO”が判断されると、ステップS5に戻る。   In step S7, the touch position of the hand touching the screen 12 is read as coordinate data to determine whether the hand touches any icon. However, the “icon” here includes not only the icon displayed in the image display area 46 but also the icon registered and set in the bookmark area 48. That is, in this step S7, when the hand is touching the icon of the image display area 46 or the icon of the bookmark area 48, “YES” is determined. If “NO” is determined, the process returns to step S5.

次のステップS9では、コンピュータ26は、手がタッチしているアイコンが画像表示領域46の子アイコンかどうか判断する。このステップS9では、具体的には、手のタッチ位置の座標が各アイコンの領域内に含まれるかどうか判断することによって、そのタッチ位置が子アイコンの位置であるかどうか判断する。   In the next step S <b> 9, the computer 26 determines whether the icon touched by the hand is a child icon of the image display area 46. Specifically, in this step S9, it is determined whether or not the touch position is the position of the child icon by determining whether or not the coordinates of the touch position of the hand are included in the area of each icon.

タッチしているアイコンが子アイコンであるとき、このステップS9で“YES”が判断され、次のステップS11で、その子アイコンにタッチしているのは「両手」かどうか判断する。そして、両手で子アイコンにタッチしているときには、ステップS13で、その子アイコンを、図6の「ズームアップ1」で示すように、拡大表示する。   When the touched icon is a child icon, “YES” is determined in this step S9, and in the next step S11, it is determined whether or not it is “both hands” that touches the child icon. When the child icon is touched with both hands, the child icon is enlarged and displayed as shown by “Zoom-up 1” in FIG. 6 in step S13.

ステップS11で“NO”が判断された場合には、コンピュータ26は、次のステップS15で、片手で子アイコンをタッチしてから一定時間経過したかどうか判断する。このステップS15は、図示しないタイマから一定時間経過を計測したというイベントが入力されたとき、“YES”を判断する。   If “NO” is determined in the step S11, the computer 26 determines whether or not a predetermined time has passed since the child icon was touched with one hand in a next step S15. This step S15 determines “YES” when an event that a predetermined time has elapsed is input from a timer (not shown).

そして、一定時間に達しないうちに手を離したときには、コンピュータ26は、ステップS15で“NO”を判断し、次のステップS17で、その子アイコンを画像表示領域46から掃き出す。先に説明したように、キーワードを入力すると、画像表示領域46において、キーワード(マザーアイコン)の周りにそのキーワードで検索したウェブサイトのサムネイル画像が子アイコンとして次々に表示されるのであるが、この実施例では、その子アイコンで示すウェブサイトを見ない(アクセスしない)ことを積極的に意思表示する1つの態様として、掃き出し動作を設定しているのである。   When the computer 26 is released before the predetermined time is reached, the computer 26 determines “NO” in step S15, and sweeps the child icon from the image display area 46 in the next step S17. As described above, when a keyword is input, thumbnail images of websites searched with the keyword are sequentially displayed as child icons around the keyword (mother icon) in the image display area 46. In the embodiment, the sweep-out operation is set as one aspect of positively displaying intention to not see (not access) the website indicated by the child icon.

ステップS15で“YES”を判断したとき、コンピュータ26は、続いて、ステップS19で、その子アイコンで表されるウェブサイトのURLをブックマーク領域48へ「お気に入り」として登録する。   If “YES” is determined in the step S15, the computer 26 subsequently registers the URL of the website represented by the child icon as a “favorite” in the bookmark area 48 in a step S19.

一方、先のステップS9で“NO”が判断された場合には、手でタッチしているアイコンがマザーアイコンかブックマークアイコンである。   On the other hand, if “NO” is determined in the previous step S9, the icon touched by hand is a mother icon or a bookmark icon.

そして、ステップS21では、タッチしているのはマザーアイコンかどうか判断する。ただし、この図8では、説明の便宜上、ステップS21では、そのマザーアイコンがたとえば図5で示す「マザーアイコンA」かどうかを判断するようにしている。そして、このステップS21では、(タッチしているアイコンがマザーアイコンAでないときにではなく、)タッチしているアイコンがマザーアイコンではないときに“NO”を判断するようにしている。   In step S21, it is determined whether or not the touch is the mother icon. However, in FIG. 8, for convenience of explanation, in step S21, it is determined whether or not the mother icon is, for example, “mother icon A” shown in FIG. In step S21, “NO” is determined when the touched icon is not the mother icon (not when the touched icon is not the mother icon A).

ステップS21で“YES”が判断されたときは、すなわち、タッチしているアイコンがマザーアイコンAであったとき、コンピュータ26は、そのマザーアイコンAが他のマザーアイコン、たとえば図5に示すマザーアイコンBに接近したかどうか判断する。もし、図9に示すように、マザーアイコンAとマザーアイコンBをドラッグして両者を接近させたとすると、2のマザーアイコン間の距離Dが所定値以下になったとき、このステップS23で“YES”が判断できる。ただし、マザーアイコンAをマザーアイコンBに接近させるためには、図9のように両方のマザーアイコンをともにドラッグで移動させる方法だけでなく、一方のマザーアイコンには何もせず、他方のマザーアイコンだけをドラッグして一方のマザーアイコンに接近させる方法がある。いずれにしても、接近判断手段を構成するステップS23で“YES”が判断されたときには、画像表示領域46内において、2つのマザーアイコン、たとえば図5に示すマザーアイコンAとマザーアイコンBとが互いに接近したことを意味し、この場合には、コンピュータ26は、次のステップS25において、キーワードAとキーワードBとを論理積(AND)したキーワード「A*B」を多数の検索エンジンに設定する。したがって、このステップS25はキーワード更新手段を構成することになり、キーワードが「A*B」で更新されると、キーワードAおよびキーワードBはともに検索の対象ではなくなる。つまり、この段階で、コンピュータ26は、2つのキーワードのANDしたキーワードを設定し直して、検索エンジンを作動させる。したがって、これ以後、各検索エンジンは、キーワード「A*B」によってウェブサイトを検索し、そのため、画像表示領域46には、そのキーワード「A*B」で検索されたウェブサイトのサムネイル画像が子アイコンとして次々に表示されることになる。   When “YES” is determined in step S21, that is, when the touched icon is the mother icon A, the computer 26 determines that the mother icon A is another mother icon, for example, the mother icon shown in FIG. It is determined whether or not B is approached. If, as shown in FIG. 9, the mother icon A and the mother icon B are dragged to bring them closer together, when the distance D between the two mother icons is less than or equal to a predetermined value, “YES” in this step S23. "Can be judged. However, in order to bring the mother icon A closer to the mother icon B, not only the method of moving both mother icons by dragging them as shown in FIG. There is a way to move only one mother icon by dragging. In any case, when “YES” is determined in step S23 constituting the approach determination means, two mother icons, for example, the mother icon A and the mother icon B shown in FIG. In this case, the computer 26 sets the keyword “A * B” obtained by ANDing the keyword A and the keyword B in a number of search engines in the next step S25. Therefore, this step S25 constitutes a keyword updating means, and when the keyword is updated with “A * B”, both the keyword A and the keyword B are no longer search targets. That is, at this stage, the computer 26 resets the keyword obtained by ANDing the two keywords and operates the search engine. Therefore, thereafter, each search engine searches the website by the keyword “A * B”. Therefore, the thumbnail image of the website searched by the keyword “A * B” is stored in the image display area 46. It will be displayed one after another as an icon.

このように、画像表示領域46上で2つのマザーアイコンを接近させるだけで、検索エンジンに設定するキーワードを、2つのキーワードをAND(論理積)したキーワードに変更できるので、従来のように、新たなキーワードを設定し直すためにキーボードを操作したり、音声入力をし直す必要がない。したがって、簡単にキーワードを変更できる。   In this way, the keyword set in the search engine can be changed to a keyword obtained by ANDing two keywords just by bringing the two mother icons close to each other on the image display area 46. There is no need to operate the keyboard or re-input voice to reset the correct keyword. Therefore, the keyword can be easily changed.

なお、先のステップS21で“NO”が判断されたとき、つまり、タッチしているアイコンが子アイコンでも、マザーアイコンでもないときには、ステップS27で、そのアイコンが、ブックマーク領域48に登録されているアイコンかどうか判断する。“NO”ならそのままステップS5に戻るが、“YES”なら、ステップS29で、先の図6の「ズームアップ2」のように、ブックマーク領域48に登録されているアイコンをズームアップする。すなわち、そのアイコンで表されるウェブサイトのURLへアクセスする。   If “NO” is determined in the previous step S21, that is, if the touched icon is neither a child icon nor a mother icon, the icon is registered in the bookmark area 48 in step S27. Determine if it is an icon. If “NO”, the process directly returns to step S5. If “YES”, the icon registered in the bookmark area 48 is zoomed up in step S29 as in “Zoom-up 2” of FIG. That is, the URL of the website represented by the icon is accessed.

なお、上述の実施例ではプラスチックスクリーン12の前方から赤外光源18によって赤外光をスクリーン上に照射し、他方コンピュータ26はカメラ22の映像信号スクリーン12の後方で赤外光が遮光される領域を検出した。しかしながら、人間の手はそれ自体が赤外光を発するものであるから、スクリーン12を透過した赤外光を検出するようにしてもよい。この場合には、コンピュータ26はカメラ22からの映像信号を分析して赤外光が存在する領域(赤外光領域)を検出するようにすればよい。   In the above embodiment, the infrared light source 18 irradiates the screen with infrared light from the front of the plastic screen 12, while the computer 26 is a region where the infrared light is shielded behind the video signal screen 12 of the camera 22. Was detected. However, since the human hand itself emits infrared light, the infrared light transmitted through the screen 12 may be detected. In this case, the computer 26 may analyze the video signal from the camera 22 and detect an area where infrared light exists (infrared light area).

また、上述の実施例では、多数の検索エンジンで同じ同時にキーワードでウェブサイトを検索するようにしたが、検索エンジンを1つだけ用いる場合でも、この発明は適用できる。   Further, in the above-described embodiment, a website is searched for with the same keyword simultaneously using many search engines. However, the present invention can be applied even when only one search engine is used.

さらに、実施例では、手でスクリーンをタッチすることによってスクリーン上の位置をポインティングする大画面タッチパネルにウェブサイト検索システムを組み込んだが、通常のコンピュータとディスプレイとを用い、マウスでアイコンをドラッグするシステムであっても、この発明は適用できる。   Furthermore, in the embodiment, the website search system is incorporated into a large screen touch panel that points the position on the screen by touching the screen with a hand. However, the system uses a normal computer and a display and drags an icon with a mouse. Even if it exists, this invention is applicable.

10 …ウェブサイト検索システム
12 …クスクリーン
16 …手
26 …コンピュータ
30 …プロジェクタ
32 …内部メモリ
38 …インタネットインタフェース
40 …インタネット
42 …マルチエンジン検索プログラム
44 …キーワード領域
46 …画像表示領域
48 …ブックマーク領域
50 …マイク
DESCRIPTION OF SYMBOLS 10 ... Website search system 12 ... Screen 16 ... Hand 26 ... Computer 30 ... Projector 32 ... Internal memory 38 ... Internet interface 40 ... Internet 42 ... Multi-engine search program 44 ... Keyword area 46 ... Image display area 48 ... Bookmark area 50 …Microphone

Claims (3)

キーワード表示領域および画像表示領域を含むタッチパネルを用いたウェブサイト検索システムであって、
手でタッチされた、前記キーワード表示領域に表示されているキーワードを検索キーワードとして受け付ける受付手段、
前記受付手段が受け付けたキーワードに対応する第1マザーアイコンを前記画像表示領域に表示する第1アイコン表示手段、
前記受付手段による受け付けに応じて受け付けた当該キーワードに従って検索エンジンでウェブサイトを検索する第1検索手段、
前記第1検索手段によって検索されたウェブサイトのサムネイル画像を前記画像表示領域に表示された第1マザーアイコンの周囲に表示する第1サムネイル表示手段、
第1マザーアイコンのドラッグによる当該第1マザーアイコンの位置の変更を受け付ける変更受付手段、
前記変更受付手段によって位置の変更が受け付けられた第1マザーアイコンと他の第2のマザーアイコンとが接近しているか否かを、第1マザーアイコンと第2マザーアイコンの間の距離が所定値より小さくなったか否かに基づいて判断する接近判断手段、
前記接近判断手段が接近していると判断したとき、第1マザーアイコンに対応するキーワードと第2マザーアイコンに対応するキーワードとの論理積を検索キーワードとして設定する設定手段、
前記設定手段による設定に応じて設定された当該キーワードに従って検索エンジンでウェブサイトを検索する第2検索手段、
前記第2検索手段によって検索されたウェブサイトのサムネイル画像を前記画像表示領域に表示する第2サムネイル表示手段、
前記画像表示領域に表示されたウェブサイトのサムネイル画像が手でタッチされたか否かを判断するタッチ判断手段、
前記タッチ判断手段がタッチされたと判断した後、一定の時間が経過する前に手がウェブサイトのサムネイル画像から離されたか否かを判断する離脱判断手段、および
前記離脱判断手段が、一定の時間が経過する前に手がウェブサイトのサムネイル画像から離れたと判断した場合に、当該サムネイル画像を前記画像表示領域から掃き出す掃出手段を備える、ウェブサイト検索システム。
A website search system using a touch panel including a keyword display area and an image display area,
Accepting means for accepting a keyword displayed in the keyword display area touched by hand as a search keyword;
First icon display means for displaying a first mother icon corresponding to the keyword accepted by the accepting means in the image display area;
First search means for searching a website with a search engine according to the keyword received in response to the reception by the reception means;
First thumbnail display means for displaying a thumbnail image of a website searched by the first search means around a first mother icon displayed in the image display area;
Change accepting means for accepting a change in the position of the first mother icon by dragging the first mother icon;
The distance between the first mother icon and the second mother icon is a predetermined value as to whether or not the first mother icon whose position change has been received by the change receiving means is close to another second mother icon. An approach judging means for judging based on whether or not it is smaller,
Setting means for setting a logical product of a keyword corresponding to the first mother icon and a keyword corresponding to the second mother icon as a search keyword when it is determined that the approach determination means is approaching;
Second search means for searching a website with a search engine according to the keyword set according to the setting by the setting means;
Second thumbnail display means for displaying a thumbnail image of the website searched by the second search means in the image display area;
Touch determination means for determining whether or not the thumbnail image of the website displayed in the image display area is touched by hand;
After determining that the touch determination unit has been touched, a departure determination unit that determines whether or not a hand has been released from the thumbnail image of the website before a predetermined time has elapsed; and A website search system comprising: a sweeping unit that sweeps a thumbnail image from the image display area when it is determined that the hand has moved away from the thumbnail image of the website before elapse of time.
前記タッチパネルは
赤外線を透過できる材料からなるスクリーン、
前記スクリーンの前方から前記スクリーンの前面に赤外光を照射する赤外光源、
前記スクリーンの後方に設けられて前記スクリーンの背面を撮影する赤外カメラ、および
前記赤外カメラからの映像信号を受け取るコンピュータを含み、
前記コンピュータは、前記映像信号に基づいて前記スクリーンにタッチしている手の位置を検出するとともに、前記手で第1マザーアイコンまたは第2マザーアイコンにタッチした状態でその手を動かすことによって第1マザーアイコンまたは第2マザーアイコンをドラッグする、請求項1記載のウェブサイト検索システム。
The touch panel is a screen made of a material capable of transmitting infrared rays,
An infrared light source that irradiates the front surface of the screen with infrared light from the front of the screen;
An infrared camera that is provided behind the screen and captures a back surface of the screen; and a computer that receives a video signal from the infrared camera,
The computer detects the position of the hand touching the screen based on the video signal, and moves the hand while touching the first mother icon or the second mother icon with the hand. The website search system according to claim 1, wherein the mother icon or the second mother icon is dragged.
キーワード表示領域および画像表示領域を含むタッチパネルを用いたウェブサイト検索方法であって、
(a)手でタッチされた、キーワード表示領域に表示されているキーワードを検索キーワードとして受け付けるステップ、
(b)前記ステップ(a)において受け付けたキーワードに対応する第1マザーアイコンを画像表示領域に表示するステップ、
(c)前記ステップ(a)における受け付けに応じて受け付けた当該キーワードに従って検索エンジンでウェブサイトを検索するステップ、
(d)前記ステップ(c)において検索されたウェブサイトのサムネイル画像を前記画像表示領域に表示された第1マザーアイコンの周囲に表示するステップ、
(e)第1マザーアイコンのドラッグによる当該第1マザーアイコンの位置の変更を受け付けるステップ、
(f)前記ステップ(e)において位置の変更が受け付けられた第1マザーアイコンと他の第2のマザーアイコンとが接近しているか否かを、第1マザーアイコンと第2マザーアイコンの間の距離が所定値より小さくなったか否かに基づいて判断するステップ、
(g)前記ステップ(f)において接近していると判断したとき、第1マザーアイコンに対応するキーワードと第2マザーアイコンに対応するキーワードとの論理積を検索キーワードとして設定するステップ、
(h)前記ステップ(g)における設定に応じて設定された当該キーワードに従って検索エンジンでウェブサイトを検索するステップ、
(i)前記ステップ(h)において検索されたウェブサイトのサムネイル画像を前記画像表示領域に表示する第2サムネイル表示ステップ、
(j)前記画像表示領域に表示されたウェブサイトのサムネイル画像が手でタッチされたか否かを判断するタッチ判断ステップ、
(k)前記タッチ判断ステップ(j)においてタッチされたと判断した後、一定の時間が経過する前に手がウェブサイトのサムネイル画像から離されたか否かを判断する離脱判断ステップ、および
(l)前記離脱判断ステップ(k)において、一定の時間が経過する前に手がウェブサイトのサムネイル画像から離れたと判断した場合に、当該サムネイル画像を前記画像表示領域から掃き出す掃出ステップを含む、ウェブサイト検索方法。
A website search method using a touch panel including a keyword display area and an image display area,
(A) receiving a keyword displayed in the keyword display area touched by hand as a search keyword;
(B) displaying a first mother icon corresponding to the keyword received in step (a) in an image display area;
(C) a step of searching a website with a search engine according to the keyword received in response to the reception in step (a);
(D) displaying a thumbnail image of the website searched in step (c) around the first mother icon displayed in the image display area;
(E) receiving a change in the position of the first mother icon by dragging the first mother icon;
(F) Whether or not the first mother icon whose position change has been accepted in step (e) is close to another second mother icon is determined between the first mother icon and the second mother icon. Determining based on whether the distance is less than a predetermined value;
(G) a step of setting a logical product of a keyword corresponding to the first mother icon and a keyword corresponding to the second mother icon as a search keyword when it is determined in the step (f) that they are approaching;
(H) searching a website with a search engine according to the keyword set in accordance with the setting in step (g);
(I) a second thumbnail display step of displaying the thumbnail image of the website searched in step (h) in the image display area;
(J) a touch determination step of determining whether or not the thumbnail image of the website displayed in the image display area has been touched by hand;
(K) a leaving determination step for determining whether or not a hand has been released from the thumbnail image of the website before a predetermined time has elapsed after determining that the touch has been made in the touch determination step (j); and (l) The website includes a sweeping step of sweeping out the thumbnail image from the image display area when it is determined in the leaving determination step (k) that the hand has left the thumbnail image of the website before a predetermined time elapses. retrieval method.
JP2009007139A 2009-01-16 2009-01-16 Website search system Expired - Fee Related JP5050153B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009007139A JP5050153B2 (en) 2009-01-16 2009-01-16 Website search system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009007139A JP5050153B2 (en) 2009-01-16 2009-01-16 Website search system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003375084A Division JP2005141340A (en) 2003-11-05 2003-11-05 Web site retrieval system

Publications (2)

Publication Number Publication Date
JP2009134738A JP2009134738A (en) 2009-06-18
JP5050153B2 true JP5050153B2 (en) 2012-10-17

Family

ID=40866507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009007139A Expired - Fee Related JP5050153B2 (en) 2009-01-16 2009-01-16 Website search system

Country Status (1)

Country Link
JP (1) JP5050153B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2897059A4 (en) 2012-09-13 2016-07-06 Ntt Docomo Inc User interface device, search method, and program
JP2014174636A (en) * 2013-03-06 2014-09-22 Ricoh Co Ltd Information browsing system and information browsing method
CN103197800B (en) * 2013-04-07 2016-08-03 布法罗机器人科技(苏州)有限公司 The monoblock type multi-point touch equipment of view-based access control model

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3311025B2 (en) * 1991-07-12 2002-08-05 株式会社東芝 Information retrieval device
JP3059664B2 (en) * 1995-06-23 2000-07-04 キヤノン株式会社 Data search method and apparatus
JPH10289251A (en) * 1997-02-17 1998-10-27 Dainippon Screen Mfg Co Ltd Data retrieving method and recording medium where program for performing its process is recorded
JP3968477B2 (en) * 1997-07-07 2007-08-29 ソニー株式会社 Information input device and information input method
GB2330668B (en) * 1997-10-24 2002-10-09 Sony Uk Ltd Audio processing
JP2001195495A (en) * 1999-10-25 2001-07-19 Fujitsu Ltd Managing method for individual online shopping environment and storage medium with program for supplying the same recorded thereon
JP3978962B2 (en) * 2000-01-13 2007-09-19 オムロン株式会社 Information search method and information search apparatus
JP2003254761A (en) * 2002-02-28 2003-09-10 Fujitsu Ten Ltd Navigation device

Also Published As

Publication number Publication date
JP2009134738A (en) 2009-06-18

Similar Documents

Publication Publication Date Title
US11797131B2 (en) Apparatus and method for image output using hand gestures
US10346016B1 (en) Nested zoom in windows on a touch sensitive device
US20190285978A1 (en) Picture selection method of projection touch
US9360965B2 (en) Combined touch input and offset non-touch gesture
RU2654133C2 (en) Three-dimensional object browsing in documents
US11169988B2 (en) Radar recognition-aided search
US9256917B1 (en) Nested zoom in windows on a touch sensitive device
US10318152B2 (en) Modifying key size on a touch screen based on fingertip location
US9417733B2 (en) Touch method and touch system
KR102644782B1 (en) The Apparatus And The System For Monitoring
US9811197B2 (en) Display apparatus and controlling method thereof
US9639167B2 (en) Control method of electronic apparatus having non-contact gesture sensitive region
US20170212906A1 (en) Interacting with user interfacr elements representing files
US10481733B2 (en) Transforming received touch input
CN106981048B (en) Picture processing method and device
JP5050153B2 (en) Website search system
TWI470511B (en) Dual-mode input apparatus
WO2017123421A1 (en) Imaging devices and methods for authenticating a user
WO2018196693A1 (en) Method for displaying image list and mobile terminal
JP2005141340A (en) Web site retrieval system
TW201441917A (en) Pre-processing operation method and related electronic device
JP5716057B2 (en) Display device, display method, and program
KR101491648B1 (en) System and Method for remote control using camera
CN117666856A (en) Control method, device and equipment for virtual interactive interface in augmented reality space
TW202034146A (en) Control system and control method thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120517

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees