JP5554804B2 - A system that supports the discovery or recognition of objects, etc. in scenery - Google Patents

A system that supports the discovery or recognition of objects, etc. in scenery Download PDF

Info

Publication number
JP5554804B2
JP5554804B2 JP2012105564A JP2012105564A JP5554804B2 JP 5554804 B2 JP5554804 B2 JP 5554804B2 JP 2012105564 A JP2012105564 A JP 2012105564A JP 2012105564 A JP2012105564 A JP 2012105564A JP 5554804 B2 JP5554804 B2 JP 5554804B2
Authority
JP
Japan
Prior art keywords
user
search data
video
acquisition means
landscape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2012105564A
Other languages
Japanese (ja)
Other versions
JP2012164351A (en
JP2012164351A5 (en
Inventor
雅信 鯨田
Original Assignee
雅信 鯨田
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 雅信 鯨田 filed Critical 雅信 鯨田
Priority to JP2012105564A priority Critical patent/JP5554804B2/en
Publication of JP2012164351A publication Critical patent/JP2012164351A/en
Publication of JP2012164351A5 publication Critical patent/JP2012164351A5/ja
Application granted granted Critical
Publication of JP5554804B2 publication Critical patent/JP5554804B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、ユーザーの周囲の実際の風景中に存在するユーザーが求める(探したい)現実の物(無体物をも含む)を、ユーザーが容易に発見又は認識できるようにするための、風景中の物体等のユーザーによる発見又は認識を支援するシステムに関する。   The present invention is provided in a landscape so that a user can easily find or recognize a real object (including an intangible object) that a user wants to find (including an intangible object) that exists in the actual scenery around the user. The present invention relates to a system that supports discovery or recognition of a user's object or the like.

従来より、OHP(オーバーヘッドプロジェクタ)などによる講義のときに、投射映像のある部分を講師がレーザー光のスポットで指し示すためのレーザー・ポインタが知られている。このレーザー・ポインタは、大学の講義や学会でのプレゼンテーションなどの様々な場面で使用されている。   Conventionally, a laser pointer for a lecturer to point a portion of a projected image with a laser beam spot at a lecture using an overhead projector (OHP) or the like is known. This laser pointer is used in various situations such as lectures at universities and presentations at academic conferences.

特開平9−192164号公報Japanese Patent Laid-Open No. 9-192164

しかしながら、前記のレーザー・ポインタは、あくまで、使用者である講師が「自分が既に知っている或る箇所(ポイント)」を他人に指し示すときに使用するものであり、使用者自身が自分でターゲット(探し求める対象となる物体や部分)の場所を探すときには全く役に立たない。   However, the laser pointer described above is used only when the lecturer who is the user points “a point (point) that he / she already knows” to another person, and the user himself / herself targets the laser pointer. It is completely useless when searching for the location (the object or part to be searched for).

また、従来より、病院の紙媒体のカルテを探すのを光や音を利用して支援するためのカルテ検索支援システムが実用化されている。このシステムは、カルテのフォルダ(カルテを収納しておく容器)の背表紙に、予め、患者の名前や識別番号を記録したバーコード、カラーコード、磁気データ、又はICチップ(半導体素子)などを記録しておくと共に、発光ダイオード(発光部)やブザー(音発生装置)を取り付けておく。そして、カルテが必要な患者について、その氏名や識別番号などの検索キーを入力すると、それに基づいて、対応する氏名や識別番号が記録されているフォルダを検索し、そのフォルダに取り付けてある発光部を光らせたり、そのフォルダに取り付けてあるブザーから音を鳴らせたりするものである。これにより、カルテを探す人は、大量のカルテの中から求めるものを容易に探し出すことができる。   Conventionally, a medical record search support system has been put into practical use for assisting in searching for a medical record on a hospital paper medium using light and sound. This system uses a barcode, color code, magnetic data, or IC chip (semiconductor element) that records the patient's name and identification number in advance on the spine of the medical record folder (container for storing medical records). In addition to recording, a light emitting diode (light emitting unit) and a buzzer (sound generator) are attached. For patients who need medical records, enter a search key such as their name and identification number. Based on that, search the folder where the corresponding name and identification number are recorded, and the light emitting unit attached to that folder Or a sound from the buzzer attached to the folder. Thereby, the person who searches for a medical chart can easily find out what he wants from a large number of medical charts.

しかしながら、このカルテ検索システムは、予め、カルテのフォルダに、患者の氏名や識別番号を記録したバーコード、カラーコード、磁気データ、又は半導体素子などを表示・取付けておくと共に、発光ダイオード(発光部)やブザー(音発生装置)を取り付けておくことが必要であるから、カルテなどの特定の種類のものにしか適用できず、様々なものに種類を問わずルーズに任意に適用することはできないという問題がある。   However, this chart search system displays and attaches in advance a bar code, color code, magnetic data, or semiconductor element that records a patient's name and identification number in a chart folder, and a light emitting diode (light emitting section). ) And buzzers (sound generators) must be installed, so it can be applied only to specific types of medical records, etc., and can not be arbitrarily applied to various types of loose items. There is a problem.

本発明は、前述のような従来技術の問題などに触発されて為されたものであって、ユーザーが、ユーザーの周囲の実際の風景の中に存在する複数の物(無体物をも含む)又はそれらの表示内容の中から、自らが求め若しくは探している対象又はその対象となっている物若しくは表示内容を、容易に発見又は認識することを可能にする、風景中の物体等のユーザーによる発見又は認識を支援するシステムを提供することを目的とする。 The present invention has been made inspired by the above-described problems of the prior art, and a plurality of objects (including intangible objects) that exist in the actual scenery around the user. Or, by the user, such as objects in the landscape, that makes it possible to easily find or recognize the object that they are seeking or looking for, the object that is the object, or the display contents from the display contents. The object is to provide a system that supports discovery or recognition.

(定義)
本明細書において、「検索対象物」は、物理的な物体(有体物)である場合が多いが、ディスプレイ画面(グラフィカル・ユーザー・インターフェース画面)上に表示されている複数のアイコンやボタンの中の一つ、などのような「実体の無いもの(無体物)」でもよい。本明細書では、これらの有体物と無体物とを併せて「物体」と呼ぶことがある。
また、本明細書において、「検索キー」は、文字(キーワード、文章、会話など)、記号、図形、画像、所定の音(音響、音声)など、検索(調べること、探すこと)のためのキーとなるものなら、どのようなものでもよい。
なお、本発明において、「検索対象物を含む映像の中の各物体又は部分を互いに識別する識別手段」による識別方式は、例えば、前記映像の中の各物体又は部分の色及び形状を検出して予め記憶した色又は形状のパターンと比較することにより識別する方式、前記各物体又は部分に表示された名前などの文字を読み取り認識する方式、前記各物体又は部分の表面に表示された識別用バーコード又は2次元コードや識別用カラーコードなどを読み取ることにより識別する方式、前記各物体又は部分に取り付けたICチップ(半導体素子)に記録された識別コードをそのICチップとの間で無線でやり取りすることにより識別する方式、などの様々な方式を採用することができる。
また本発明において、例えば、ユーザーが「パソコンの画面上のデータを、外付けの光磁気ディスクに保存する操作」を希望したとき、本発明によるポインティング装置は、まず、パソコン画面の「ファイル」のアイコンをレーザー光で指示し(これにより、ユーザーに、このアイコンをマウス等でクリックするように指示する)、次に、「名前を付けて保存」の文字のあるボタン部分をレーザー光で指示し(これにより、ユーザーに、「名前を付けて保存」のポタンをクリックするように指示する)、次に、「保存する場所」の文字のあるボタン部分をレーザー光で指示し(これにより、ユーザーに、「保存する場所」の文字のあるボタン部分をクリックするように指示する)、次に「保存の実行」のボタン部分をレーザー光で指示する(これにより、ユーザーに、「保存の実行」のボタン部分をクリックするように指示する)、というように、「データ保存のために必要な一連の操作」に必要な物体又は部分を、その一連の操作に即して、順次、ユーザーに対して、指し示していく。
また本発明において、「レーザー光が当たった(照射された)とき、その当たった場所又はその近傍で所定の音を発するための音発生手段」は、レーザー光が照射されたことを検知する検知手段と、この検知手段からの信号に基づいて駆動する振動板又はブザー等とから構成される。前記のレーザー光が照射されたことを検知する手段としては、例えば、受光素子などの光センサや、熱電素子などの熱センサ(レーザー光が照射されたスポットは、レーザー光のエネルギーにより他の部分よりも熱せられるから)などの様々なものが採用できる。
本明細書では、レーザー光線を検索対象物(ユーザーが求めているモノ、ユーザーが探したいモノ)に照射することにより、ユーザーに検索対象物を指し示すようにした発明、ディスプレイ画面上に「検索対象物とその周辺の物(人、動物、植物を含む)を示す映像を表示させながら、さらにその画面上で、検索対象物を、例えば矢印のマークなどで、指示すること」により、ユーザー(例えば、視力の衰えた老人など)に、求める検索対象物を指し示す発明、などを開示している。
また、本発明において、「文字」は数字を含み、「記号」はバーコード、2次元コード、又はカラーコードなどのような、所定の図形もしくは色のパターンから成る記号を含む。
(Definition)
In this specification, the “search object” is often a physical object (tangible object), but among a plurality of icons and buttons displayed on the display screen (graphical user interface screen). One or the like may be an “ intangible thing ( intangible )”. In this specification, these tangible and intangible objects may be collectively referred to as “ objects ”.
Further, in this specification, the “search key” is used for searching (checking, searching) such as characters (keywords, sentences, conversations, etc.), symbols, figures, images, predetermined sounds (acoustics, voices), etc. Any key can be used.
In the present invention, the identification method by “identification means for mutually identifying each object or part in the video including the search target” is, for example, detecting the color and shape of each object or part in the video. A method of identifying by comparing with a pattern of color or shape stored in advance, a method of reading and recognizing characters such as names displayed on each object or part, and for identification displayed on the surface of each object or part A method of identifying by reading a bar code, a two-dimensional code, an identification color code, or the like, and an identification code recorded on an IC chip (semiconductor element) attached to each object or part wirelessly with the IC chip Various methods such as a method of identifying by exchanging can be adopted.
In the present invention, for example, when the user desires “an operation to save the data on the screen of the personal computer to the external magneto-optical disk”, the pointing device according to the present invention first stores the “file” on the personal computer screen. Instruct the icon with a laser beam (this instructs the user to click this icon with a mouse, etc.), and then instruct the button part with the word “Save As” with the laser beam. (This tells the user to click the “Save As” button.) Then, the button with the word “Location to save” is indicated with a laser beam. Instruct the user to click the button part with the word “Location to save”, and then instruct the button part of “Execute save” with a laser beam ( In this way, the user is instructed to click the “execute save” button part), and the object or part necessary for “a series of operations necessary for data storage” is Point to the user sequentially in accordance with the operation.
Further, in the present invention, “a sound generating means for emitting a predetermined sound at or near the place where the laser beam hits” is detected to detect that the laser beam has been applied. And a diaphragm or a buzzer that is driven based on a signal from the detection means. As means for detecting that the laser beam has been irradiated, for example, an optical sensor such as a light receiving element, or a thermal sensor such as a thermoelectric element (the spot irradiated with the laser beam depends on the energy of the laser beam) Various things can be adopted.
In this specification, a laser beam is irradiated on a search object (thing that the user wants, a thing that the user wants to find) to indicate the search object to the user. And displaying the video showing the surrounding objects (including people, animals, plants), and further indicating the search object on the screen with, for example, an arrow mark, etc. " The present invention discloses an invention that indicates a search object to be searched for, for example, an elderly person whose vision has declined.
In the present invention, the “character” includes a number, and the “symbol” includes a symbol formed of a predetermined graphic or color pattern such as a bar code, a two-dimensional code, or a color code.

本願の特許請求の範囲に記載された発明の内容は次のとおりである。
1.「ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、画像、図形、文字又は記号により構成される検索用データを、入力、受信又は取得する検索用データ取得手段と、前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索用データに対応する、物、絵、図形、文字又は記号」を特定もしくは抽出する特定手段と、前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『前記検索用データに対応する、物、絵、図形、文字又は記号』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」を、ユーザーが容易に発見又は認識できるように、表示装置の画面上で「前記位置又は存在を指示する表示」を行う表示制御手段と、を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
2.「ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、文字又は記号により構成され所定の意味を有する検索用データを、入力、受信又は取得する検索用データ取得手段と、前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索データの意味と一致する意味を有する、1つ又は複数の文字又は記号の列」を、特定もしくは抽出する特定手段と、前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『文字又は記号の列』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」を、ユーザーが容易に発見又は認識できるように、表示装置の画面上で「前記位置又は存在を指示する表示」を行う表示制御手段と、を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
3.「ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、画像、図形、文字又は記号により構成される検索用データを、入力、受信又は取得する検索用データ取得手段と、前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索用データに対応する、物、絵、図形、文字又は記号」を特定もしくは抽出する特定手段と、前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『前記検索用データに対応する、物、絵、図形、文字又は記号』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」をユーザーが容易に発見又は認識できるように、ユーザーの周囲の実際の風景の中で、前記位置又は存在を光などにより指示することにより、ユーザーの認識を支援する認識支援手段と、を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
4.上記3において、前記認識支援手段は、ユーザーの周囲の実際の風景の中で、前記位置又は存在を、レーザー光照射手段から照射されるレーザー光により、指示するものである、ことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
The contents of the invention described in the claims of the present application are as follows.
1. "Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels Video acquisition means for acquiring video (moving image or still image) of “including landscape”, search data acquisition means for inputting, receiving or acquiring search data composed of images, figures, characters or symbols, Based on the search data input, received or acquired by the search data acquisition means, from the video acquired by the video acquisition means, "an object, a picture, a figure, a character or a character corresponding to the search data" Based on the identification means for identifying or extracting “symbols” and the results identified or extracted by the identification means, “corresponding to the“ specified or extracted “data for search” The above-mentioned user of a thing, a picture, a figure, a character or a symbol "or a thing to which it is attached (including not only a tangible object but also an intangible object such as an icon or a button existing in a display screen) Display control means for performing “display indicating the position or presence” on the screen of the display device so that the user can easily find or recognize the “position or presence in the actual scenery around the A system for supporting discovery or recognition by a user of an object in a landscape, etc.
2. "Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels Video acquisition means for acquiring a video (moving image or still image) of “landscape included as”, search data acquisition means for inputting, receiving or acquiring search data composed of characters or symbols and having a predetermined meaning; Based on the search data input, received or acquired by the search data acquisition means, the video acquired by the video acquisition means “one or more having a meaning matching the meaning of the search data Based on the identification means for identifying or extracting the "character or symbol string" and the result identified or extracted by the identifying means, The “string of characters or symbols” or the object to which it is attached (including not only tangible objects but also intangible objects such as icons or buttons present in the display screen) Display control means for performing "display indicating the position or presence" on the screen of the display device so that the user can easily find or recognize "position or presence in the landscape" A system that supports the discovery or recognition of objects in the landscape.
3. "Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels Video acquisition means for acquiring video (moving image or still image) of “including landscape”, search data acquisition means for inputting, receiving or acquiring search data composed of images, figures, characters or symbols, Based on the search data input, received or acquired by the search data acquisition means, from the video acquired by the video acquisition means, "an object, a picture, a figure, a character or a character corresponding to the search data" Based on the identification means for identifying or extracting “symbols” and the results identified or extracted by the identification means, “corresponding to the“ specified or extracted “data for search” The above-mentioned user of a thing, a picture, a figure, a character or a symbol "or a thing to which it is attached (including not only a tangible object but also an intangible object such as an icon or a button existing in a display screen) By indicating the position or presence in the actual scenery around the user with light or the like so that the user can easily find or recognize "the position or presence in the actual scenery around the user" A system for supporting the discovery or recognition by a user of an object or the like in a landscape.
4). In the above item 3, the recognition assisting means indicates the position or presence in an actual landscape around the user with a laser beam emitted from the laser beam emitting means. A system that supports the discovery or recognition of objects in the landscape.

(1)本願発明によれば、ユーザーは、自らの周囲の実際の風景の中に存在する複数の物(ユーザーの周囲の景色中にディスプレイ画面が存在しているときのそのディスプレイ画面の中に表示されているアイコンやボタンなどの無体物をも含む)又はそれらの表示内容の中から、自らが求め若しくは探している対象又はその対象となっている物若しくは表示内容を、容易に発見又は認識できるようになる。
(2)本願発明中の一部の発明によれば、ユーザーは、自らの周囲の実際の風景の中に存在する複数の物(ユーザーの周囲の景色中にディスプレイ画面が存在しているときのそのディスプレイ画面の中に表示されているアイコンやボタンなどの無体物をも含む)又はそれらの表示内容の中から、自らが求め若しくは探している対象又はその対象となっている物若しくは表示内容を、例えば表示装置の画面に表示される表示物や表示内容により、容易に発見又は認識できるようになる。
(3)本願発明中の一部の発明によれば、ユーザーは、自らの周囲の実際の風景の中に存在する複数の物(ユーザーの周囲の景色中にディスプレイ画面が存在しているときのそのディスプレイ画面の中に表示されているアイコンやボタンなどの無体物をも含む)又はそれらの表示内容の中から、自らが求め若しくは探している対象又はその対象となっている物若しくは表示内容を、例えば実際の(現実の)世界において実際に照射されるレーザー光などにより、容易に発見又は認識できるようになる。
(1) According to the present invention, the user can select a plurality of objects existing in the actual scenery around the user (in the display screen when the display screen exists in the scenery around the user). Including intangible objects such as icons and buttons that are displayed) or their display contents, you can easily find or recognize the object that you are seeking or looking for, the object that is the object, or the display contents I can do it.
(2) According to some inventions of the present invention, a user can use a plurality of objects existing in an actual scenery around the user (when a display screen is present in the scenery around the user). (Including intangible objects such as icons and buttons displayed on the display screen) or the display contents of the display, the object that the person is seeking or looking for, the object that is the object, or the display contents For example , it can be easily found or recognized by a display object or display content displayed on the screen of the display device .
(3) According to some inventions of the present invention, the user can select a plurality of objects existing in the actual scenery around the user (when the display screen is present in the scenery around the user). (Including intangible objects such as icons and buttons displayed on the display screen) or the display contents of the display, the object that the person is seeking or looking for, the object that is the object, or the display contents For example, it can be easily found or recognized by a laser beam actually irradiated in the actual (real) world .

本発明の実施形態1を示すブロック図である。It is a block diagram which shows Embodiment 1 of this invention. 本実施形態1の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of this Embodiment 1. 本発明の実施形態2を示すブロック図である。It is a block diagram which shows Embodiment 2 of this invention. 本実施形態2の動作を示すための図である。It is a figure for showing operation of this Embodiment 2.

〔実施形態1〕
図1は本発明の実施形態1を概念的に示すためのブロック図である。図1において、1は対象物2を撮像するための撮像部(例えばCCDカメラ)、3はユーザーが検索キー(例えば、キーワード、キーとなる映像、キーとなる図形、など)を入力するための検索キー入力部、4は前記撮像部1からの映像と前記検索キー入力部3からの検索キーとに基づいて検索キーに対応するターゲットの物体を検索するための検索処理部(マイクロコンピュータ等により構成される)、5はこの検索処理部4の検索結果に基づいて前記ターゲットの物体に向けてレーザー光を発生させるレーザー光発生部である。
Embodiment 1
FIG. 1 is a block diagram conceptually showing Embodiment 1 of the present invention. In FIG. 1, 1 is an imaging unit (for example, a CCD camera) for imaging an object 2 and 3 is for a user to input a search key (for example, a keyword, a key image, a key graphic, etc.). A search key input unit 4 is a search processing unit (by a microcomputer or the like) for searching for a target object corresponding to the search key based on the video from the imaging unit 1 and the search key from the search key input unit 3. 5) is a laser beam generator that generates a laser beam toward the target object based on the search result of the search processor 4.

図1の装置では、前記撮像部1とレーザー光発生部5とは、一つの筐体6(図1の符号6参照)に収納されて、ユーザーの頭や首や胸などの位置に取り付けられるようになっていることが望ましい。すなわち、この筐体6は、例えば、ネックレス、ブローチ、頭部保持部などの身体装着型の部材として形成されていてもよい。また、前記筐体6は、通常の携帯情報端末(PDA)やノートパソコンのように、ユーザーが手に持って使用するものでもよい。なお、上記で撮像部1とレーザー光発生部5が一つの筐体6に収納されるのが望ましいと述べた理由は、レーザー光発生部5からレーザー光を目指すターゲットの物体に向けて正確に照射するためには、撮像部1とレーザー光発生部5の位置関係を予め特定しておく必要があるからである。この理由からは、前記の撮像部1とレーザー光発生部5との位置関係が特定できるようにしておけるなら(例えば、撮像部1又はレーザー光発生部5の空間的位置をジャイロ・センサや磁気センサなどにより検出できるようにして、その空間的位置の情報を、撮像部1とレーザー光発生部5との間で赤外線などの無線により随時交信できるようにしておく)、撮像部1とレーザー光発生部5とは、互いに離れた別個の筐体に収容されるようにしてもよい。   In the apparatus of FIG. 1, the imaging unit 1 and the laser light generation unit 5 are housed in one housing 6 (see reference numeral 6 in FIG. 1) and attached to a position such as a user's head, neck, or chest. It is desirable that That is, this housing | casing 6 may be formed as body-worn type members, such as a necklace, a brooch, and a head holding | maintenance part, for example. Further, the housing 6 may be used by a user holding it like a normal personal digital assistant (PDA) or notebook computer. The reason why the imaging unit 1 and the laser light generation unit 5 are preferably housed in the single housing 6 is described above because the laser light generation unit 5 accurately directs the laser beam toward the target object. This is because the positional relationship between the imaging unit 1 and the laser light generation unit 5 needs to be specified in advance in order to irradiate. For this reason, if the positional relationship between the imaging unit 1 and the laser light generation unit 5 can be specified (for example, the spatial position of the imaging unit 1 or the laser light generation unit 5 is determined by a gyro sensor or a magnetic field). The information on the spatial position can be detected by a sensor or the like so that the information on the spatial position can be communicated between the image capturing unit 1 and the laser light generating unit 5 by radio such as infrared rays at any time). The generator 5 may be housed in separate housings that are separated from each other.

また、図1において、前記検索処理部4も、前記撮像部1及びレーザー光発生部5と一緒に一つの筐体6(図1の符号6)に収容するのが望ましい。なぜなら、検索処理部4は、撮像部1からの映像データを受信すると共に、撮像部1及びレーザー光発生部5の空間的位置データを把握しておく必要があるが、そのためにはこれらと一緒の筐体6に収納する方が便利だからである。しかし、前記撮像部1及びレーザー光発生部5と検索処理部4との間でデータを無線で交信できるようにすれば、検索処理部4を、前記撮像部1又はレーザー光発生部5と別体に構成してもよい。また、前記検索キー入力部3についても、これと同様である。すなわち、検索キー入力部3は、撮像部1、レーザー光発生部5、及び検索処理部4と一緒に一つの筐体(図1の符号6)に収容されることが望ましいが、これらの機器1,5及び4と無線交信できるようにすれば、検索キー入力部3をこれらとは別の筐体に含ませるようにしてもよい。   In FIG. 1, it is desirable that the search processing unit 4 is also housed in one housing 6 (reference numeral 6 in FIG. 1) together with the imaging unit 1 and the laser light generation unit 5. This is because the search processing unit 4 receives the video data from the imaging unit 1 and needs to grasp the spatial position data of the imaging unit 1 and the laser light generation unit 5. It is because it is more convenient to store in the case 6. However, if data can be communicated wirelessly between the imaging unit 1 and the laser light generation unit 5 and the search processing unit 4, the search processing unit 4 is separated from the imaging unit 1 or the laser light generation unit 5. You may make up your body. The same applies to the search key input unit 3. That is, the search key input unit 3 is preferably housed in one housing (reference numeral 6 in FIG. 1) together with the imaging unit 1, the laser light generation unit 5, and the search processing unit 4, but these devices If it is possible to wirelessly communicate with 1, 5, and 4, the search key input unit 3 may be included in a separate housing.

前記撮像部1が撮像する対象(検索対象物を含む対象)は、例えば、ユーザーが操作しようとしているパソコンのキーボード部やビデオテープレコーダの各種の操作ボタンが備えられた操作盤、多数の本が並んでいる書架、病院内のカルテを並べた棚、街角の風景(ビルなどの建物の看板や道路標識などを含むもの)、自動車や飛行機の運転席から見える操作盤(コックピットの中の前方の操作部)、紙やディスプレイ上の地図や新聞、病院で行われる手術の対象となる患者の身体の患部、などである。   Examples of objects (objects including search objects) to be imaged by the imaging unit 1 include, for example, an operation panel provided with various operation buttons of a keyboard portion of a personal computer or a video tape recorder that a user is trying to operate, and a large number of books. Bookshelves lined up, shelves with medical charts in the hospital, landscapes on street corners (including building signs such as buildings and road signs), operation panels that can be seen from the driver seats of cars and airplanes An operation unit), a map on a paper or a display, a newspaper, an affected part of a patient's body that is a target of surgery performed in a hospital, and the like.

また、図1において、3はユーザーが検索キーを入力するための検索キー入力部、である。この検索キー入力部3は、例えば、ユーザーがキーワードや文章を入力するためのキーボート又はペン入力用タブレット、ユーザーが音声でキーワードや文章を入力するためのマイク、ユーザーがスキャナやデータ記録装置などからの画像を入力するための画像取り込み装置、などの様々な機器を含むものである。   In FIG. 1, reference numeral 3 denotes a search key input unit for a user to input a search key. The search key input unit 3 includes, for example, a keyboard or pen input tablet for the user to input keywords and sentences, a microphone for the user to input keywords and sentences by voice, and a user from a scanner or a data recording device. And various devices such as an image capturing device for inputting the image.

また、マイクロコンピュータ等から成る検索処理部4は、前記撮像部1からの映像(画像)と、前記検索キー入力部3からの検索キー(文字、音声、図形、又は画像)とに基づいて、前記映像の中の各物体の中から、前記検索キーに対応(該当)するモノ(検索対象物。物理的な物体(有体物)である場合が多いが、ディスプレイ画面(グラフィカル・ユーザー・インターフェース画面)上に表示されている複数のアイコン・ボタンの中の一つ、などのような「実体の無いもの(無体物)」でもよい。以下では、これらの有体物と無体物とを併せて「物体」と呼ぶことがある)を検索するものである。   Further, the search processing unit 4 including a microcomputer or the like is based on the video (image) from the imaging unit 1 and the search key (character, voice, figure, or image) from the search key input unit 3. Of the objects in the video, the object corresponding to (applicable to) the search key (search object, which is often a physical object (tangible object), but a display screen (graphical user interface screen) It may be an “intangible thing (intangible object)” such as one of a plurality of icons and buttons displayed above, etc. In the following, these tangible object and intangible object will be referred to as “object”. Search).

この検索の過程では、検索処理部4は、まず、前記映像の中の各物体について、それを所定の方式で他の物体と識別する(なお、この場合の識別方式は、例えば、前記映像の中の各物体の色及び形状を検出して予め記憶した色又は形状のパターンと比較することにより識別する方式、前記各物体の表面に表示された識別用バーコード又は2次元コードや識別用カラーコードなどを読み取ることにより識別する方式、前記各物体に取り付けたICチップ(半導体素子)に記録された識別コードをそのICチップとの間で無線でやり取りすることにより識別する方式、などの様々な方式を採用することができる)。そして、その識別された各物体の特徴などを、前記の入力された検索キーと比較・照合して、前記検索キーに対応する物体を特定する。そして、検索処理部4は、レーザー光発生部5から前記の特定された物体に向けてレーザー光を発生させるための、レーザー光の照射方向を決定する(検索処理部4は、前述のように、レーザー光発生部5と撮像部1との相互の位置関係のデータを持っているので、撮像部1からの映像に基づいて、その映像中のある物体に向けてレーザー光を照射するための照射方向の計算は、可能である)。   In the search process, the search processing unit 4 first identifies each object in the video from another object by a predetermined method (in this case, the identification method is, for example, the video A method of identifying by detecting the color and shape of each object inside and comparing it with a pre-stored color or shape pattern, an identification barcode or two-dimensional code or identification color displayed on the surface of each object Various methods, such as a method for identifying by reading a code, a method for identifying the identification code recorded on the IC chip (semiconductor element) attached to each object by wirelessly communicating with the IC chip, etc. Method can be adopted). Then, the feature of each identified object is compared and collated with the input search key, and the object corresponding to the search key is specified. Then, the search processing unit 4 determines the irradiation direction of the laser light for generating the laser light from the laser light generating unit 5 toward the specified object (the search processing unit 4 is as described above). Since the data of the mutual positional relationship between the laser light generation unit 5 and the imaging unit 1 is possessed, based on the video from the imaging unit 1, the laser beam for irradiating a certain object in the video The calculation of the irradiation direction is possible).

なお、前記検索処理部4は、撮像部1からの映像と検索キー入力部3からの検索キーとを受信することによるだけでなく、それらと共に外部機器からのデータをも受信することにより、ターゲットの物体又は部分を検索することもある。例えば、撮像部1が撮像する対象物2(図1の符号2参照)がパソコン(パーソナルコンピュータ)である場合に、ユーザーが「パソコンの画面の中のあるデータのコピーの操作方法を教えて下さい」という検索キー(検索キーは、「文章」や「会話」として入力することもできる)を音声で入力した場合を説明する。このとき、撮像部1は、対象物2であるパソコンの映像を撮り込んで検索処理部4に送る。検索処理部4は、前記の検索キーの対応する操作方法を問い合わせる信号を、赤外線などの無線により、対象物2であるパソコンに送信する。すると、パソコン(対象物2)から、例えば、「まず、範囲指定して、コピーのアイコンをクリックする」という操作方法が返信される。そこで、検索処理部4は、このパソコン(対象物2)から返信された操作方法のデータに基づいて、指示すべきターゲットとなる物体又は部分、例えば「コピーのために画面上に用意されているアイコン」を前記映像の中から探して、それを特定する。そして、検索処理部4は、この特定したアイコンに向けてレーザー光を照射するように、レーザー光発生部5に制御信号を送信する。   Note that the search processing unit 4 not only receives the video from the imaging unit 1 and the search key from the search key input unit 3, but also receives data from the external device together with them, so that the target May search for objects or parts of For example, if the object 2 (refer to reference numeral 2 in FIG. 1) that the image capturing unit 1 captures is a personal computer, the user can tell me how to copy a certain data on the screen of the personal computer. A search key “” (the search key can also be input as “sentence” or “conversation”) will be described. At this time, the imaging unit 1 captures an image of the personal computer that is the object 2 and sends it to the search processing unit 4. The search processing unit 4 transmits a signal for inquiring about an operation method corresponding to the search key to a personal computer that is the object 2 by radio such as infrared rays. Then, for example, an operation method “first specify a range and click a copy icon” is returned from the personal computer (object 2). Therefore, the search processing unit 4 is prepared on the screen for copying, such as a target object or part to be instructed, based on the operation method data returned from the personal computer (target object 2). The icon is searched from the video and specified. And the search process part 4 transmits a control signal to the laser beam generation part 5 so that a laser beam may be irradiated toward this specified icon.

また、例えば、撮像部1が撮像する対象物2が飛行機のコックピットの操作盤である場合に、ユーザーが「飛行機が右旋回するときの操作方法」という検索キーを音声入力した場合を説明する。このとき、検索処理部4は、前記操作盤の映像を撮像部1から取り込むと共に、外部のノート型パソコン7(図1参照。このノート型パソコン7には、対象となっている型式の飛行機のコックピット内の操作方法のデータベースが記録されている。)に対して、「飛行機が右旋回するときの操作方法」を無線で問い合わせる。パソコン7(このパソコン7は、図1の対象物2ではない)は、この問い合わせに対する答えである「操作の方法」、例えば「風力メーターが所定値以下であることを確認した後に、操作カンを右側にゆっくり回す」という答え(一連の操作方法)を、無線で送信する。そこで、この答え(一連の操作方法)を受信した検索処理部4は、前記映像を解析して、ターゲットとなる風力メーターの部分と操作カンとを特定する。そして、検索処理部4は、前記の一連の操作方法に即して、時系列的に、まず、前記風力メーターに対してレーザー光を照射させ、その後、前記操作カンに対してレーザー光を照射させるように、前記レーザー光発生部5を制御する。すなわち、検索処理部4は、ユーザーに対して、「まず、最初に、風力メーターが所定値以下であることを確認せよ」ということを指示するために、風力メーターにレーザー光を照射する。そして、その後、「次に、操作カンを右側にゆっくり回すということを指示するために、操作カンにレーザー光を照射する。   Further, for example, when the object 2 to be imaged by the imaging unit 1 is an operation panel of an airplane cockpit, a case where a user inputs a search key “operation method when the airplane turns right” by voice input will be described. . At this time, the search processing unit 4 captures an image of the operation panel from the imaging unit 1 and also uses an external notebook personal computer 7 (see FIG. 1). The database of operation methods in the cockpit is recorded.) "The operation method when the airplane turns right" is inquired wirelessly. After confirming that the personal computer 7 (this personal computer 7 is not the object 2 in FIG. 1) is the “operation method” that is the answer to this inquiry, for example, “the wind meter is below a predetermined value, "Slowly turn to the right" to send the answer (a series of operation methods) wirelessly. Therefore, the search processing unit 4 that has received this answer (a series of operation methods) analyzes the video and identifies the target wind meter portion and the operation can. Then, in accordance with the series of operation methods, the search processing unit 4 first irradiates the wind meter with laser light in time series, and then irradiates the operation can with laser light. The laser beam generator 5 is controlled so that That is, the search processing unit 4 irradiates the wind meter with laser light in order to instruct the user that “first, confirm that the wind meter is equal to or less than a predetermined value”. And then, “Next, in order to instruct to turn the operating can slowly to the right, the operating can is irradiated with laser light.

レーザー光発生部5は、前記検索処理部4からのレーザー光照射方向を示す制御データに基づいて、目指すターゲットの物体に向けて、レーザー光を照射する。この照射されるレーザー光が可視光の場合は、ターゲットの物体にレーザー光のスポットが表示されるので、ユーザーは、その目指す物体を容易に知る(視認する)ことができる。したがって、レーザー光発生部5からのレーザー光は、少なくとも室内の場合は、可視光レーザーであることが望ましい。しかし他方、戸外の場合は、可視光レーザーを頻繁に発生させると他人の迷惑にもなるので、赤外線レーザーなどの肉眼で見えないレーザー光を発生させることもやむを得ない。前記の照射されるレーザー光が赤外線レーザーなどのように可視光でない場合は、ユーザーは、暗視メガネ又は暗視カメラ(CCDカメラで周囲の景色(前記の赤外線レーザー光などをも、この「景色」の一部を構成する)を捕らえて、それを眼前の小型液晶ディスプレイなどで表示するもの)や、スターアイ(周囲の光を増幅して眼前に表示するもの)などを使用することにより、レーザー光の軌跡やターゲットの物体上のレーザー光スポットを認識することができる。   The laser light generation unit 5 irradiates the target target object with the laser light based on the control data indicating the laser light irradiation direction from the search processing unit 4. When the irradiated laser light is visible light, a laser light spot is displayed on the target object, so that the user can easily know (view) the target object. Therefore, it is desirable that the laser beam from the laser beam generator 5 is a visible light laser at least in a room. On the other hand, in the case of the outdoors, if a visible light laser is frequently generated, it may cause trouble for others, and it is unavoidable to generate laser light that cannot be seen with the naked eye, such as an infrared laser. When the irradiated laser light is not visible light such as an infrared laser, the user can use a night vision glasses or a night vision camera (a CCD camera to view the surrounding scenery (the infrared laser light or the like is By using a small liquid crystal display in front of the eye) or a star eye (amplifying ambient light to display in front of the eye) The locus of the laser beam and the laser beam spot on the target object can be recognized.

次に、本実施形態1の動作を図2に基づいて説明する。ユーザーは、CCDカメラなどの撮像部1により周囲の景色(検索対象物をその一部として含む景色)の映像を取り込む(capture)(ステップS1)。そして、検索処理部4は、この取り込まれた映像の中の各物体を互いに識別する。この場合の識別の手法は、前述のように、様々なものが採用される。また、ユーザーは前記検索キー入力部3から音声・文字・画像などにより検索キーを入力する(ステップS3)。なお、前記のステップS1及びステップS2とステップS3とは、どちらが先でもよいし、また同時進行の関係でもよい。次に、検索処理部4は、前記の入力された検索キーと前記の識別した各物体とを比較・照合しながら、前記検索キーに対応(該当)するターゲットの物体を特定する(ステップS5)。次に、検索処理部4は、前記撮像部1からの映像と、前記撮像部1とレーザー光発生部5との間の空間的位置関係データとに基づいて、前記レーザー光発生部5から前記ターゲットの物体に向けてレーザー光を照射するための照射方向を計算し、この照射方向データをレーザー光発生部5に送信する(ステップS5)。レーザー光発生部5では、この照射方向データに基づいて、前記ターゲットの物体の方向に向けて、レーザー光を発生する(ステップS6)。   Next, the operation of the first embodiment will be described with reference to FIG. The user captures an image of a surrounding landscape (a landscape including the search target as a part thereof) by the imaging unit 1 such as a CCD camera (step S1). Then, the search processing unit 4 identifies each object in the captured video from each other. As described above, various identification methods are employed in this case. Further, the user inputs a search key from the search key input unit 3 by voice, text, image, or the like (step S3). Note that either step S1, step S2, or step S3 may be earlier or may be in a simultaneous progress relationship. Next, the search processing unit 4 identifies a target object corresponding to (corresponding to) the search key while comparing / collating the input search key with each identified object (step S5). . Next, the search processing unit 4 is based on the image from the imaging unit 1 and the spatial positional relationship data between the imaging unit 1 and the laser beam generation unit 5 from the laser beam generation unit 5. The irradiation direction for irradiating the target object with the laser beam is calculated, and the irradiation direction data is transmitted to the laser beam generator 5 (step S5). Based on the irradiation direction data, the laser light generator 5 generates laser light in the direction of the target object (step S6).

次に、本実施形態1の様々な用途について説明する。
(1)ユーザーが、コンピュータの操作を教室などで学んでいるとき、講師の説明を受けながら、キーボードなどを操作するとき、どのキーを押せばよいのか分からないことが多い。そのとき、本実施形態1(ブローチ型、ネックレス型、頭部装着型など)をユーザーの胸、首元、頭(おでこ)などに装着して、ユーザーが例えば「画面のプリントアウトのための操作」というキーワード又は文章を音声入力する。すると、本実施形態1の装置から「画面のプラントアウトのための操作」のための「キーのボタン」や「画面上のアイコン(絵文字)」に向けてレーザー光が照射されるので、ユーザーは容易に「次に押すべきキー」(コンピュータの操作の方法)を知ることができる。
Next, various uses of the first embodiment will be described.
(1) When a user is learning to operate a computer in a classroom or the like, it is often difficult to know which key to press when operating a keyboard or the like while receiving instructions from a lecturer. At that time, the first embodiment (brooch type, necklace type, head-mounted type, etc.) is worn on the user's chest, neck, head (forehead), etc. The keyword or sentence “is input”. Then, since the laser beam is emitted from the apparatus of the first embodiment toward the “key button” for the “operation for planting out the screen” and the “icon (pictogram) on the screen”, the user can You can easily know the “key to be pressed next” (computer operation method).

(2)ユーザーが、自動車や飛行機の運転の操作を学んでいるときも、講師の説明を受けながら、どのメーターのどの部分を見ればよいのか、どの「操作ボタン」や「操作かん」を押せばよいのか分からないことも多い。その場合も、ユーザーが例えば「右旋回時の操作」という言葉を発することにより、そのために必要な一連の操作方法(最初にチェックすべきメーターの位置と、そのチェック後に操作すべき操作ボタンや操作カンの位置)を、レーザー光で指示できれば便利である。   (2) When the user is learning how to drive a car or an airplane, press the “operation button” or “operator” to see which part of the meter to see while receiving instructions from the instructor. There are many things that do not know what to do. Even in this case, the user can say, for example, “operation when turning right”, so that a series of operation methods necessary for that (the position of the meter to be checked first, the operation button to be operated after the check, It is convenient if the position of the operation can) can be indicated with a laser beam.

(3)ユーザーが、図書館である題名の本を探すときに、書棚の中に大量に本があるために容易に探し出せないことが多い。その場合も、本実施形態1の検索キー入力部3に、ユーザーが、探している本の題名と作者名(例えば、「それから」夏目漱石)を検索キーとして音声入力すると、撮像部1が前記本棚の映像を撮り込んで、検索処理部4に送る。検索処理部4では、この映像に基づいて、本の背表紙の作者名と題名を読み取り(文字認識し)、該当する題名の本を検索する。該当する本があれば、その本に向けて、レーザー光を照射させる。これにより、ユーザーは、大量の本の中から容易に目指す本を探し出すことができる。   (3) When a user searches for a book whose title is a library, it is often difficult to find a book because there are a large number of books in the bookshelf. Even in this case, when the user inputs a voice to the search key input unit 3 of the first embodiment using the title and author name of the book being searched for (for example, “Natsume Soseki”) as a search key, the imaging unit 1 Video of the bookshelf is captured and sent to the search processing unit 4. Based on this video, the search processing unit 4 reads (recognizes characters) the author's name and title on the spine of the book, and searches for a book with the corresponding title. If there is an applicable book, laser light is irradiated toward the book. As a result, the user can easily find the book that he / she wants from a large number of books.

(4)ユーザーが地図(紙の地図又は情報機器のディスプレイ上の電子地図)を見ながら、ある地名又は建物名を探したいとき、地図には小さな文字が大量に表示されているため、容易にその地名や建物名が探し出せないことが多い(もっとも、電子地図の場合は検索機能が付いているものもあるが、紙の地図ではそれはない)。そのとき、本実施形態1の装置を使用して、例えば、ユーザーが東京都の地図を見ながら、「八重洲ビル」という検索キーを音声入力したとする。すると、撮像部1が地図を映像で取り込んで、検索処理部4に送る。検索処理部4は、この取り込んだ地図の映像に基づいて、その地図上に表示された大量の文字を認識する。そして、これらの認識した文字と比較しながら、「八重洲ビル」の文字を探す。検索処理部4がこの「八重洲ビル」の文字の場所を探し出したら、その場所に向けて、レーザー光を照射させる。これにより、ユーザーは、容易に地図上の「八重洲ビル」の場所を探し出すことができる。   (4) When a user wants to find a place name or building name while looking at a map (paper map or electronic map on the display of an information device), a lot of small characters are displayed on the map. In many cases, the name of the place or the name of the building cannot be found (although some electronic maps have a search function, paper maps do not). At that time, it is assumed that, for example, the user inputs a search key “Yaesu Building” by voice while looking at a map of Tokyo using the apparatus of the first embodiment. Then, the imaging unit 1 captures the map as a video and sends it to the search processing unit 4. The search processing unit 4 recognizes a large amount of characters displayed on the map based on the captured map image. Then, the characters “Yaesu Building” are searched while comparing with these recognized characters. When the search processing unit 4 finds the location of the characters “Yaesu Building”, laser light is irradiated toward the location. As a result, the user can easily find the location of the “Yaesu Building” on the map.

(5)ユーザーが新聞(紙の新聞又は情報機器のディスプレイ上の電子新聞)を読むとき、例えば「特許」に関する記事は見逃さずに読むようにしたいと思っても、新聞の文字は大量であるため、見逃すことも少なくない。そこで、本実施形態1により、ユーザーが「特許」というキーワードを音声入力すると共に、撮像部1によりユーザーの眼前の新聞の映像を撮り込んで検索処理部4に送信する。検索処理部4では、受信した映像を文字認識することにより、文字認識した文字と「特許」というキーワードを比較・照合して、「特許」というキーワードを含む記事があるとどうかを検索し、該当する記事があれば、その記事の部分を、レーザー光で照射するようにする。これにより、ユーザーは、希望するキーワードを含む記事を見逃すことなく読むことが可能になる。   (5) When a user reads a newspaper (paper newspaper or electronic newspaper on the display of an information device), for example, even if he wants to read articles on "patents" without missing, there are a lot of newspaper letters For this reason, it is often missed. Therefore, according to the first embodiment, the user inputs the keyword “patent” by voice, and the imaging unit 1 captures a video of a newspaper in front of the user and transmits it to the search processing unit 4. The search processing unit 4 performs character recognition on the received video to compare and collate the character recognized character with the keyword “patent” to find out if there is an article containing the keyword “patent”. If there is an article to do, the part of the article is irradiated with laser light. Thereby, the user can read an article including a desired keyword without missing the article.

(6)ユーザーが病院内の多数のカルテ(紙のカルテ)を並べた棚からある一人の患者のカルテを取り出そうとするとき、カルテが多数あるために短時間内に探し出すことは困難である。そこで、本実施形態1を使用して、ユーザーがある患者の氏名を音声入力すると、まず、撮像部1によりカルテが並べられた棚を撮像して、その撮像データを検索処理部4に送る。また、検索処理部4は、その入力された氏名に対応する識別番号を取り出すとともに、識別番号を示す信号を無線で送信する。他方、各カルテには、予め、ICチップが取り付けられており、この各ICチップには、各患者の識別番号を記録する記録部と自己の位置データを無線送信する無線送信部とが形成されている。そのため、前記検索処理部4からある患者の識別番号が送信されると、その識別番号に対応するICチップは、自己の位置データを前記検索処理部4に対して無線で返信する。検索処理部4は、この無線で返信された位置データと前記映像とに基づいて、レーザー光の照射方向を算出し、その求めるカルテの位置する場所に向けて、レーザー光を照射させる。   (6) When a user tries to take out a patient's chart from a shelf in which a large number of charts (paper charts) are arranged in the hospital, it is difficult to find out in a short time because there are many charts. Therefore, when the user inputs the name of a patient by voice using the first embodiment, the imaging unit 1 first images the shelf on which the charts are arranged and sends the imaging data to the search processing unit 4. Further, the search processing unit 4 extracts an identification number corresponding to the inputted name and transmits a signal indicating the identification number wirelessly. On the other hand, an IC chip is attached in advance to each chart, and each IC chip is formed with a recording unit that records the identification number of each patient and a wireless transmission unit that wirelessly transmits its position data. ing. Therefore, when an identification number of a patient is transmitted from the search processing unit 4, the IC chip corresponding to the identification number returns its own position data to the search processing unit 4 wirelessly. The search processing unit 4 calculates the irradiation direction of the laser beam based on the position data sent back wirelessly and the video, and irradiates the laser beam toward the place where the medical chart to be obtained is located.

(7)ユーザーが戸外を歩いたり自動車でドライブしているとき、街中で、求める建物(建物の看板の文字)や道路標識(道路標識の文字)を見落としてしまったり、なかなか見つけられないということが少なくない。そこで、本実施形態1を使用して、ユーザーが、例えば、「大手町ビル」とか「国道246号線」というキーワードを音声入力するとする。すると、撮像部1が進行方向の周囲の景色を映像で取り込、検索処理部4に送る。検索処理部4では、この映像の中の所定の文字(建物の看板の文字や道路標識の文字)を文字認識して、前記の入力されたキーワードと比較・照合する。そして、前記キーワードに該当するものがあれば、その該当する建物や道路標識に向けて、レーザー光を照射する。   (7) When a user walks outdoors or drives by car, the building (characters on the building signboard) and road signs (characters on the road signs) that are sought in the city are overlooked, and it is difficult to find them. There are many. Therefore, it is assumed that the user inputs a keyword such as “Otemachi Building” or “National Route 246” using the first embodiment. Then, the imaging unit 1 captures the surrounding scenery in the traveling direction as a video and sends it to the search processing unit 4. The search processing unit 4 recognizes a predetermined character in the video (a character of a building sign or a character of a road sign), and compares and collates it with the input keyword. And if there exists a thing applicable to the said keyword, a laser beam is irradiated toward the applicable building or road sign.

(8)ユーザー(医者)が患者の手術をしている場合でも、例えば、「肝臓」というキーワードを入力すれば、患者の内蔵を撮像して、その映像の中の「肝臓」の部分に向けて、レーザー光を照射することができる。   (8) Even when the user (doctor) is operating on the patient, for example, if the keyword “liver” is input, the internal part of the patient is imaged and directed to the “liver” portion of the video. Then, laser light can be irradiated.

なお、本実施形態1では、レーザー光が当たったことを検知して音を発生する振動板やブザーなどを、検索対象物を含む「対象物(図1の符号2参照)」である操作機器の各部分に予めとり付けておくようにすれば、ユーザーに、レーザー光だけでなく、音によっても、検索結果であるターゲットの物体又は部分を指し示すことができる。   In the first embodiment, an operating device that is a “target object (see reference numeral 2 in FIG. 1)” including a search target object such as a diaphragm or a buzzer that detects a laser beam and generates sound. If each part is attached in advance, the target object or part as a search result can be indicated to the user not only by the laser beam but also by sound.

〔実施形態2〕
次に、本発明の実施形態2を図3に基づいて説明する。図3において、図1と共通する部分には、同一の符号を付している。図3において、15は液晶表示装置などのディスプレイである。また、14は、撮像部1からの対象物の映像と検索キーとに基づいてターゲットの物体又は部分を検索し、そのターゲットをディスプレイ14上で指し示すための検索処理部である。
[Embodiment 2]
Next, Embodiment 2 of the present invention will be described with reference to FIG. In FIG. 3, the same reference numerals are given to portions common to FIG. 1. In FIG. 3, 15 is a display such as a liquid crystal display device. Reference numeral 14 denotes a search processing unit for searching for a target object or part based on the image of the target object from the imaging unit 1 and a search key, and pointing the target on the display 14.

すなわち、この実施形態2では、ディスプレイ15には、前記撮像部1からの映像がほぼそのまま表示されるようになっている。また、この実施形態2の検索処理部14の検索動作は、実施形態1の検索処理部4(図1)とほぼ同様であるが、検索結果のターゲットの指し示すやり方が、実施形態1と異なっている。すなわち、この実施形態2では、検索結果であるターゲットの物体又は部分を指し示す方法として、実施形態1のようなレーザー光ではなく、ディスプレイ15上の表示(例えば、矢印のマークの表示など)により、指し示すようにしている。この指し示す表示のやり方は、例えば、画面上の矢印、画面上の赤色の点、画面上のある点の点滅、などの様々な方法がありうる。   That is, in the second embodiment, the video from the imaging unit 1 is displayed almost as it is on the display 15. The search operation of the search processing unit 14 of the second embodiment is substantially the same as that of the search processing unit 4 (FIG. 1) of the first embodiment, but the method of pointing the target of the search result is different from that of the first embodiment. Yes. That is, in the second embodiment, as a method of pointing to the target object or portion as a search result, not the laser beam as in the first embodiment, but a display on the display 15 (for example, display of an arrow mark). I try to point. There are various ways of pointing and displaying such as an arrow on the screen, a red dot on the screen, and blinking of a certain point on the screen.

例えば、図4はこのディスプレイ15の表示画面の一例を示すものである。この例では、ユーザーが戸外に出て、ある建物(例えば、「大手町ビル」)に行こうとしている場合である。ユーザーがその建物をなかなか見つけられないとき、ユーザーが「大手町ビル」と検索キーを音声入力する。すると、撮像部1が周囲の景色を映像として撮り込み、検索処理部14に送る。検索処理部14においては、前記の検索キー「大手町ビル」と、前記映像の中の建物の看板の文字との比較・照合を行い、該当する建物があれば、検索を終了する。そして、ディスプレイ15の画面に、前記撮像部1からの映像(検索対象物をその一部として含む景色)を表示させると共に、その中の検索結果に該当する「大手町ビル」の建物(図4の符号20)に、矢印(図4の符号21)を表示させて、ユーザーに該当する建物を指し示す。このディスプレイ15の画面は、ユーザーの眼前の景色とほぼ同一又は類似の景色を表示しているので、ユーザーは、このディスプレイ15の画面を見ることにより、容易に求める建物を見つけることができるる。   For example, FIG. 4 shows an example of the display screen of the display 15. In this example, the user is going out and going to a certain building (for example, “Otemachi Building”). When the user has difficulty finding the building, the user voices “Otemachi Building” and a search key. Then, the imaging unit 1 captures the surrounding scenery as an image and sends it to the search processing unit 14. The search processing unit 14 compares and collates the search key “Otemachi Building” with the characters on the billboard of the building in the video. If there is a corresponding building, the search ends. Then, on the screen of the display 15, an image from the imaging unit 1 (scenery including the search object as a part thereof) is displayed, and a building of “Otemachi Building” corresponding to the search result (FIG. 4). An arrow (reference numeral 21 in FIG. 4) is displayed on the reference numeral 20) to indicate the building corresponding to the user. Since the screen of the display 15 displays a landscape that is almost the same as or similar to the landscape in front of the user, the user can easily find the desired building by looking at the screen of the display 15.

1 撮像部
3 検索キー入力部
4 検索処理部
5 レーザー光発生部
6 筐体
7 パソコン
14,15 ディスプレイ
DESCRIPTION OF SYMBOLS 1 Image pick-up part 3 Search key input part 4 Search processing part 5 Laser beam generation part 6 Case 7 Personal computer 14,15 Display

Claims (12)

ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、
画像、図形、文字又は記号により構成される検索用データを、入力、受信又は取得する検索用データ取得手段と、
前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索用データに対応する、物、絵、図形、文字又は記号」を特定もしくは抽出する特定手段と、
前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『前記検索用データに対応する、物、絵、図形、文字又は記号』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」を、ユーザーが容易に発見又は認識できるように、表示装置の画面上で「前記位置又は存在を指示する表示」を行う表示制御手段と、
を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
" Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels a video obtaining means for obtaining an image (moving image or still image) landscape "containing as,
Search data acquisition means for inputting, receiving or acquiring search data composed of images, figures, characters or symbols;
Based on the search data input, received or acquired by the search data acquisition means, from the video acquired by the video acquisition means, “objects, pictures, figures, characters corresponding to the search data” Or a specifying means for specifying or extracting a symbol,
Based on the result specified or extracted by the specifying means, “the specified or extracted“ object, picture, figure, character or symbol corresponding to the search data ”or an object attached to it (tangible object) The user can easily find or recognize the “ position or presence of an intangible object such as an icon or button existing in the display screen as well as an actual scene around the user”. Display control means for performing "display indicating the position or presence" on the screen of the display device ,
A system for supporting discovery or recognition by a user of an object or the like in a landscape, characterized by comprising:
ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、
文字又は記号により構成され所定の意味を有する検索用データを、入力、受信又は取得する検索用データ取得手段と、
前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索データの意味と一致する意味を有する、1つ又は複数の文字又は記号の列」を、特定もしくは抽出する特定手段と、
前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『文字又は記号の列』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」を、ユーザーが容易に発見又は認識できるように、表示装置の画面上で「前記位置又は存在を指示する表示」を行う表示制御手段と、
を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
" Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels a video obtaining means for obtaining an image (moving image or still image) landscape "containing as,
Search data acquisition means for inputting, receiving or acquiring search data composed of characters or symbols and having a predetermined meaning;
Based on the search data input, received, or acquired by the search data acquisition means, one of the videos acquired by the video acquisition means, “one having a meaning that matches the meaning of the search data, or A means for specifying or extracting a plurality of character or symbol strings;
Based on the result specified or extracted by the specifying means, "the specified or extracted 'string of characters or symbols' or an object to which it is attached (not only a tangible object but also a display screen) (Including intangible objects such as icons or buttons) on the screen of the display device so that the user can easily find or recognize the “ location or presence in the actual scenery around the user ”. Display control means for performing `` display indicating position or presence '' ,
A system for supporting discovery or recognition by a user of an object or the like in a landscape, characterized by comprising:
ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、
画像、図形、文字又は記号により構成される検索用データを、入力、受信又は取得する検索用データ取得手段と、
前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索用データに対応する、物、絵、図形、文字又は記号」を特定もしくは抽出する特定手段と、
前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『前記検索用データに対応する、物、絵、図形、文字又は記号』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」をユーザーが容易に発見又は認識できるように、ユーザーの周囲の実際の風景の中で、前記位置又は存在を光などにより指示することにより、ユーザーの認識を支援する認識支援手段と、
を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
" Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels a video obtaining means for obtaining an image (moving image or still image) landscape "containing as,
Search data acquisition means for inputting, receiving or acquiring search data composed of images, figures, characters or symbols;
Based on the search data input, received or acquired by the search data acquisition means, from the video acquired by the video acquisition means, “objects, pictures, figures, characters corresponding to the search data” Or a specifying means for specifying or extracting a symbol,
Based on the result specified or extracted by the specifying means, “the specified or extracted“ object, picture, figure, character or symbol corresponding to the search data ”or an object attached to it (tangible object) The user can easily find or recognize the “ position or presence of an intangible object such as an icon or button existing in the display screen as well as an actual scene around the user”. As described above, in the actual scenery around the user, by indicating the position or presence by light or the like , recognition support means for supporting the user's recognition,
A system for supporting discovery or recognition by a user of an object or the like in a landscape, characterized by comprising:
請求項3において、前記認識支援手段は、ユーザーの周囲の実際の風景の中で、前記位置又は存在を、レーザー光照射手段から照射されるレーザー光により、指示するものである、ことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。 4. The recognition support unit according to claim 3, wherein the recognition support unit is configured to indicate the position or presence in an actual scene around the user by a laser beam emitted from the laser beam irradiation unit. A system that supports the discovery or recognition of objects in the landscape. ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、
画像、図形、文字又は記号により構成される検索用データを、入力、受信又は取得する検索用データ取得手段と、
前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索用データに対応する、物、絵、図形、文字又は記号」を特定もしくは抽出する特定手段と、
前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『前記検索用データに対応する、物、絵、図形、文字又は記号』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」を、ユーザーが容易に発見又は認識できるように、表示装置の画面上で「前記位置又は存在を指示する表示」を行う表示制御手段と、
を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
" Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels a video obtaining means for obtaining an image (moving image or still image) landscape "containing as,
Search data acquisition means for inputting, receiving or acquiring search data composed of images, figures, characters or symbols;
Based on the search data input, received or acquired by the search data acquisition means, from the video acquired by the video acquisition means, “objects, pictures, figures, characters corresponding to the search data” Or a specifying means for specifying or extracting a symbol,
Based on the result specified or extracted by the specifying means, “the specified or extracted“ object, picture, figure, character or symbol corresponding to the search data ”or an object attached to it (tangible object) The user can easily find or recognize the “ position or presence of an intangible object such as an icon or button existing in the display screen as well as an actual scene around the user”. Display control means for performing "display indicating the position or presence" on the screen of the display device ,
A system for supporting discovery or recognition by a user of an object or the like in a landscape, characterized by comprising:
ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、
文字又は記号により構成され所定の意味を有する検索用データを、入力、受信又は取得する検索用データ取得手段と、
前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索データの意味と一致する意味を有する、1つ又は複数の文字又は記号の列」を、特定もしくは抽出する特定手段と、
前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『文字又は記号の列』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」を、ユーザーが容易に発見又は認識できるように、表示装置の画面上で「前記位置又は存在を指示する表示」を行う表示制御手段と、
を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
" Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels a video obtaining means for obtaining an image (moving image or still image) landscape "containing as,
Search data acquisition means for inputting, receiving or acquiring search data composed of characters or symbols and having a predetermined meaning;
Based on the search data input, received, or acquired by the search data acquisition means, one of the videos acquired by the video acquisition means, “one having a meaning that matches the meaning of the search data, or A means for specifying or extracting a plurality of character or symbol strings;
Based on the result specified or extracted by the specifying means, "the specified or extracted 'string of characters or symbols' or an object to which it is attached (not only a tangible object but also a display screen) (Including intangible objects such as icons or buttons) on the screen of the display device so that the user can easily find or recognize the “ location or presence in the actual scenery around the user ”. Display control means for performing `` display indicating position or presence '' ,
A system for supporting discovery or recognition by a user of an object or the like in a landscape, characterized by comprising:
ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、
画像、図形、文字又は記号により構成される検索用データを、入力、受信又は取得する検索用データ取得手段と、
前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索用データに対応する、物、絵、図形、文字又は記号」を特定もしくは抽出する特定手段と、
前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『前記検索用データに対応する、物、絵、図形、文字又は記号』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」をユーザーが容易に発見又は認識できるように、ユーザーの周囲の実際の風景の中で、前記位置又は存在を光などにより指示することにより、ユーザーの認識を支援する認識支援手段と、
を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
" Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels a video obtaining means for obtaining an image (moving image or still image) landscape "containing as,
Search data acquisition means for inputting, receiving or acquiring search data composed of images, figures, characters or symbols;
Based on the search data input, received or acquired by the search data acquisition means, from the video acquired by the video acquisition means, “objects, pictures, figures, characters corresponding to the search data” Or a specifying means for specifying or extracting a symbol,
Based on the result specified or extracted by the specifying means, “the specified or extracted“ object, picture, figure, character or symbol corresponding to the search data ”or an object attached to it (tangible object) The user can easily find or recognize the “ position or presence of an intangible object such as an icon or button existing in the display screen as well as an actual scene around the user”. As described above, in the actual scenery around the user, by indicating the position or presence by light or the like , recognition support means for supporting the user's recognition,
A system for supporting discovery or recognition by a user of an object or the like in a landscape, characterized by comprising:
請求項7において、前記認識支援手段は、ユーザーの周囲の実際の風景の中で、前記位置又は存在を、レーザー光照射手段から照射されるレーザー光により、指示するものである、ことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。 8. The recognition support unit according to claim 7, wherein the recognition support unit is configured to indicate the position or presence in an actual scenery around the user by a laser beam emitted from the laser beam irradiation unit. A system that supports the discovery or recognition of objects in the landscape. ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、
画像、図形、文字又は記号により構成される検索用データを、入力、受信又は取得する検索用データ取得手段と、
前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索用データに対応する、物、絵、図形、文字又は記号」を特定もしくは抽出する特定手段と、
前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『前記検索用データに対応する、物、絵、図形、文字又は記号』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」を、ユーザーが容易に発見又は認識できるように、表示装置の画面上で「前記位置又は存在を指示する表示」を行う表示制御手段と、
を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
" Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels a video obtaining means for obtaining an image (moving image or still image) landscape "containing as,
Search data acquisition means for inputting, receiving or acquiring search data composed of images, figures, characters or symbols;
Based on the search data input, received or acquired by the search data acquisition means, from the video acquired by the video acquisition means, “objects, pictures, figures, characters corresponding to the search data” Or a specifying means for specifying or extracting a symbol,
Based on the result specified or extracted by the specifying means, “the specified or extracted“ object, picture, figure, character or symbol corresponding to the search data ”or an object attached to it (tangible object) The user can easily find or recognize the “ position or presence of an intangible object such as an icon or button existing in the display screen as well as an actual scene around the user”. Display control means for performing "display indicating the position or presence" on the screen of the display device ,
A system for supporting discovery or recognition by a user of an object or the like in a landscape, characterized by comprising:
ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、
文字又は記号により構成され所定の意味を有する検索用データを、入力、受信又は取得する検索用データ取得手段と、
前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索データの意味と一致する意味を有する、1つ又は複数の文字又は記号の列」を、特定もしくは抽出する特定手段と、
前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『文字又は記号の列』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」を、ユーザーが容易に発見又は認識できるように、表示装置の画面上で「前記位置又は存在を指示する表示」を行う表示制御手段と、
を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
" Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels a video obtaining means for obtaining an image (moving image or still image) landscape "containing as,
Search data acquisition means for inputting, receiving or acquiring search data composed of characters or symbols and having a predetermined meaning;
Based on the search data input, received, or acquired by the search data acquisition means, one of the videos acquired by the video acquisition means, “one having a meaning that matches the meaning of the search data, or A means for specifying or extracting a plurality of character or symbol strings;
Based on the result specified or extracted by the specifying means, "the specified or extracted 'string of characters or symbols' or an object to which it is attached (not only a tangible object but also a display screen) (Including intangible objects such as icons or buttons) on the screen of the display device so that the user can easily find or recognize the “ location or presence in the actual scenery around the user ”. Display control means for performing `` display indicating position or presence '' ,
A system for supporting discovery or recognition by a user of an object or the like in a landscape, characterized by comprising:
ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、
画像、図形、文字又は記号により構成される検索用データを、入力、受信又は取得する検索用データ取得手段と、
前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索用データに対応する、物、絵、図形、文字又は記号」を特定もしくは抽出する特定手段と、
前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『前記検索用データに対応する、物、絵、図形、文字又は記号』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」を、ユーザーが容易に発見又は認識できるように、表示装置の画面上で「前記位置又は存在を指示する表示」を行う表示制御手段と、
を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
" Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels a video obtaining means for obtaining an image (moving image or still image) landscape "containing as,
Search data acquisition means for inputting, receiving or acquiring search data composed of images, figures, characters or symbols;
Based on the search data input, received or acquired by the search data acquisition means, from the video acquired by the video acquisition means, “objects, pictures, figures, characters corresponding to the search data” Or a specifying means for specifying or extracting a symbol,
Based on the result specified or extracted by the specifying means, “the specified or extracted“ object, picture, figure, character or symbol corresponding to the search data ”or an object attached to it (tangible object) The user can easily find or recognize the “ position or presence of an intangible object such as an icon or button existing in the display screen as well as an actual scene around the user”. Display control means for performing "display indicating the position or presence" on the screen of the display device ,
A system for supporting discovery or recognition by a user of an object or the like in a landscape, characterized by comprising:
ユーザーの周囲の実際の風景(ユーザーの目に見える様子)であって少なくとも建物、看板、道路、道路標識、棚、書架、パソコン、ビデオテープレコーダ、又は操作盤などの人工物をその一部として含む風景」の映像(動画又は静止画)を取得する映像取得手段と、
文字又は記号により構成され所定の意味を有する検索用データを、入力、受信又は取得する検索用データ取得手段と、
前記検索用データ取得手段により入力、受信又は取得された検索用データに基づいて、前記映像取得手段により取得された映像の中から、「前記検索データの意味と一致する意味を有する、1つ又は複数の文字又は記号の列」を、特定もしくは抽出する特定手段と、
前記特定手段により特定または抽出された結果に基づいて、「前記特定もしくは抽出された『文字又は記号の列』又はそれが付されている物(有体物だけでなく、ディスプレイ画面の中に存在しているアイコンもしくはボタンなどの無体物をも含む)の、前記ユーザーの周囲の実際の風景の中における位置又は存在」を、ユーザーが容易に発見又は認識できるように、表示装置の画面上で「前記位置又は存在を指示する表示」を行う表示制御手段と、
を含むことを特徴とする、風景中の物体等のユーザーによる発見又は認識を支援するシステム。
" Actual scenery around the user (visible to the user), including at least some artifacts such as buildings, signs, roads, road signs, shelves, bookshelves, computers, video tape recorders, or control panels a video obtaining means for obtaining an image (moving image or still image) landscape "containing as,
Search data acquisition means for inputting, receiving or acquiring search data composed of characters or symbols and having a predetermined meaning;
Based on the search data input, received, or acquired by the search data acquisition means, one of the videos acquired by the video acquisition means, “one having a meaning that matches the meaning of the search data, or A means for specifying or extracting a plurality of character or symbol strings;
Based on the result specified or extracted by the specifying means, "the specified or extracted 'string of characters or symbols' or an object to which it is attached (not only a tangible object but also a display screen) (Including intangible objects such as icons or buttons) on the screen of the display device so that the user can easily find or recognize the “ location or presence in the actual scenery around the user ”. Display control means for performing `` display indicating position or presence '' ,
A system for supporting discovery or recognition by a user of an object or the like in a landscape, characterized by comprising:
JP2012105564A 1998-06-23 2012-05-07 A system that supports the discovery or recognition of objects, etc. in scenery Expired - Lifetime JP5554804B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012105564A JP5554804B2 (en) 1998-06-23 2012-05-07 A system that supports the discovery or recognition of objects, etc. in scenery

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP1998193747 1998-06-23
JP19374798 1998-06-23
JP2012105564A JP5554804B2 (en) 1998-06-23 2012-05-07 A system that supports the discovery or recognition of objects, etc. in scenery

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP11141463A Division JP2000089163A (en) 1998-06-23 1999-05-21 Pointing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013237503A Division JP2014075139A (en) 1998-06-23 2013-11-17 System supporting user to find or recognize object, etc. in landscape

Publications (3)

Publication Number Publication Date
JP2012164351A JP2012164351A (en) 2012-08-30
JP2012164351A5 JP2012164351A5 (en) 2013-05-30
JP5554804B2 true JP5554804B2 (en) 2014-07-23

Family

ID=46843611

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012105564A Expired - Lifetime JP5554804B2 (en) 1998-06-23 2012-05-07 A system that supports the discovery or recognition of objects, etc. in scenery
JP2013237503A Pending JP2014075139A (en) 1998-06-23 2013-11-17 System supporting user to find or recognize object, etc. in landscape

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013237503A Pending JP2014075139A (en) 1998-06-23 2013-11-17 System supporting user to find or recognize object, etc. in landscape

Country Status (1)

Country Link
JP (2) JP5554804B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075139A (en) * 1998-06-23 2014-04-24 Masanobu Kujirada System supporting user to find or recognize object, etc. in landscape

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7003720B2 (en) * 2018-02-19 2022-01-21 コニカミノルタ株式会社 Image processing equipment, image processing equipment control methods, and programs
JP2019178990A (en) * 2018-03-30 2019-10-17 コイト電工株式会社 Position confirmation system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03260768A (en) * 1990-03-09 1991-11-20 Fuji Electric Co Ltd Key word emphasis display device
JP2881973B2 (en) * 1990-06-13 1999-04-12 ソニー株式会社 Information retrieval device
JP2884720B2 (en) * 1990-06-15 1999-04-19 ソニー株式会社 Portable search and display
JPH05324900A (en) * 1992-05-15 1993-12-10 Sumitomo Electric Ind Ltd Portable character retrieving device
JP3002100U (en) * 1994-03-17 1994-09-13 特芸株式会社 Display device
JPH07319883A (en) * 1994-05-20 1995-12-08 Nippon Telegr & Teleph Corp <Ntt> Device and method for retrieving picture
JP3493532B2 (en) * 1995-01-31 2004-02-03 オムロン株式会社 Object explanation device and object explanation method
JPH10133840A (en) * 1996-11-01 1998-05-22 Olympus Optical Co Ltd System device for processing information
JP5554804B2 (en) * 1998-06-23 2014-07-23 雅信 鯨田 A system that supports the discovery or recognition of objects, etc. in scenery

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075139A (en) * 1998-06-23 2014-04-24 Masanobu Kujirada System supporting user to find or recognize object, etc. in landscape

Also Published As

Publication number Publication date
JP2012164351A (en) 2012-08-30
JP2014075139A (en) 2014-04-24

Similar Documents

Publication Publication Date Title
US10741167B2 (en) Document mode processing for portable reading machine enabling document navigation
US7085693B2 (en) Manipulation of electronic media using off-line media
Cutting Representing motion in a static image: constraints and parallels in art, science, and popular culture
US7659915B2 (en) Portable reading device with mode processing
US8284999B2 (en) Text stitching from multiple images
US7641108B2 (en) Device and method to assist user in conducting a transaction with a machine
CN103092338B (en) Update by individualized virtual data and print content
CN103064512B (en) Static dump content is made to become dynamic with virtual data
US7325735B2 (en) Directed reading mode for portable reading machine
US7629989B2 (en) Reducing processing latency in optical character recognition for portable reading machine
US8626512B2 (en) Cooperative processing for portable reading machine
US7627142B2 (en) Gesture processing with low resolution images with high resolution processing for optical character recognition for a reading machine
US8249309B2 (en) Image evaluation for reading mode in a reading machine
US20060017752A1 (en) Image resizing for optical character recognition in portable reading machine
US20060020486A1 (en) Machine and method to assist user in selecting clothing
Sudol et al. Looktel—A comprehensive platform for computer-aided visual assistance
Götzelmann et al. SmartTactMaps: a smartphone-based approach to support blind persons in exploring tactile maps
Christensen et al. An interactive computer vision system dypers: Dynamic personal enhanced reality system
JP5554804B2 (en) A system that supports the discovery or recognition of objects, etc. in scenery
Shilkrot et al. FingerReader: A finger-worn assistive augmentation
KR20000032647A (en) 3-dimensional reading support system and method thereof
JP2000089163A (en) Pointing device
Carmigniani Augmented reality methods and algorithms for hearing augmentation
Molina et al. Visual noun navigation framework for the blind
JP2003242168A (en) Method and apparatus for displaying information

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140415

R150 Certificate of patent or registration of utility model

Ref document number: 5554804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R150 Certificate of patent or registration of utility model

Ref document number: 5554804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term