JP2006154890A - Information terminal device and system - Google Patents

Information terminal device and system Download PDF

Info

Publication number
JP2006154890A
JP2006154890A JP2004339968A JP2004339968A JP2006154890A JP 2006154890 A JP2006154890 A JP 2006154890A JP 2004339968 A JP2004339968 A JP 2004339968A JP 2004339968 A JP2004339968 A JP 2004339968A JP 2006154890 A JP2006154890 A JP 2006154890A
Authority
JP
Japan
Prior art keywords
information
terminal device
information terminal
image
related information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004339968A
Other languages
Japanese (ja)
Inventor
Hideki Osada
英喜 長田
Tetsuya Ishii
哲也 石井
Toru Nakamura
透 中村
Masako Okazaki
理子 岡崎
Kentaro Sekiyama
健太郎 関山
Takehiro Yoshida
剛洋 吉田
Takahiro Amauchi
隆裕 天内
Tokuyoshi Shimamoto
篤義 嶋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004339968A priority Critical patent/JP2006154890A/en
Publication of JP2006154890A publication Critical patent/JP2006154890A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information terminal device which enables a user to easily understand a meaning of an object being observed by the user. <P>SOLUTION: The information terminal device is provided with a display element, an object-specifying means, an image-acquiring means, a signal-processing means having a display processing part, and an image information-processing means. The signal-processing means executes processing for specifying an object within an acquired image from the image acquired by the image-acquiring means and the object-specifying means. The image information-processing means acquires at least first and second related information, which relate to the object, from a prescribed database file. The display processing part displays the first related information on an area corresponding to the vicinity of the object among the displaying areas of the display element and also displays the second related information on an area corresponding to a position away from the object. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、対象物に関する情報を表示する情報端末装置、特に、使用者が見ている対象物を特定し、特定した対象部に関する情報を表示する情報端末装置に関する。   The present invention relates to an information terminal device that displays information related to an object, and more particularly to an information terminal device that specifies an object viewed by a user and displays information related to the specified target part.

近年、情報端末装置は、一度に多くの情報を表示できることが要求されている。一方で、装置そのものは小型化されることが要求されている。そのため、表示素子をあまり大きくすることができず、そこに表示される情報の判読等が困難となってしまうことがある。そこで、表示素子に表示される画像を使用者の視野全域で観察することが可能となるような装置が提案されている。このような装置として、例えば、表示素子に表示される画像を反射、拡大して表示するヘッドマウントディスプレイ装置(以下、HMD装置と云う。特許文献1参照)や、それらの画像をホログラム素子により拡大投影する携帯電話(特許文献2参照)といったものがある。   In recent years, information terminal devices are required to be able to display a large amount of information at a time. On the other hand, the device itself is required to be miniaturized. Therefore, the display element cannot be made very large, and it may be difficult to read information displayed on the display element. In view of this, an apparatus has been proposed in which an image displayed on a display element can be observed over the entire field of view of the user. As such a device, for example, a head mounted display device (hereinafter referred to as an HMD device, see Patent Document 1) that reflects and enlarges an image displayed on a display element, or enlarges these images by a hologram element. There is a mobile phone to be projected (see Patent Document 2).

さらに、使用者の視線の位置、すなわち注視点がどこにあるのかを視線検出手段によって検出し、その注視点に基づいて、表示する電子像を変化させるようにした情報端末装置も提案されている。(特許文献1参照)   Furthermore, an information terminal device has also been proposed in which the position of the user's line of sight, that is, where the gazing point is located is detected by the line-of-sight detection means, and the electronic image to be displayed is changed based on the gazing point. (See Patent Document 1)

また、注視点から使用者の観察対象を特定し、その観察対象の関連情報を表示素子に表示するといった処理を行うようにすることも知られている。(特許文献1参照)
特開平9−211376号 特開2001−308997号
It is also known to perform processing such as specifying a user's observation target from a gazing point and displaying related information of the observation target on a display element. (See Patent Document 1)
JP-A-9-212376 JP 2001-308997 A

特許文献1では、情報端末装置の使用者が観察している対象物が信号機である場合が例示されている。そして、その信号機に関する関連情報として、信号機から使用者までの距離が、表示素子に表示されるようになっている(特許文献1図5参照)。このように、従来の情報端末装置では、使用者の観察している対象物に関わらず予め決められている情報や、計算された種類の数値等が関連情報として表示されるのみであった。   In patent document 1, the case where the target object which the user of the information terminal device observes is a traffic light is illustrated. And as the related information regarding the traffic signal, the distance from the traffic signal to the user is displayed on the display element (see Patent Document 1 FIG. 5). As described above, in the conventional information terminal device, information determined in advance regardless of the object observed by the user, a numerical value of the calculated type, and the like are only displayed as related information.

しかし、例えば、対象物がスローガンやキャッチフレーズであって、使用者がそれらの持つ意味を容易に理解できない場合等、使用者の欲する関連情報が、そのような数値等ではなく、観察している対象物ごとに異なる意味や由来といったものである場合もある。   However, for example, when the target object is a slogan or catchphrase and the user cannot easily understand the meaning, the relevant information that the user wants is not the numerical value, but the target being observed. In some cases, each thing has a different meaning and origin.

本発明は、このような問題点を解決するためになされたものであり、その目的とするところは、使用者が観察している対象物の持つ意味を、使用者が容易に理解することができる情報端末装置を提供することである。   The present invention has been made to solve such problems, and the purpose of the present invention is to enable the user to easily understand the meaning of the object observed by the user. It is to provide an information terminal device that can be used.

上記の目的を達成するために本発明の情報端末装置は、表示素子と、対象物特定手段と、画像取得手段と、表示処理部を有する信号処理手段と、画像情報処理手段と、を備え、前記信号処理手段は前記画像取得手段によって取得した取得画像と前記対象物特定手段とから該取得画像内における対象物を特定する処理を行い、前記画像情報処理手段は所定のデータベースファイルから前記対象物に関連する第1の関連情報と第2の関連情報を少なくとも取得し、前記表示処理部は前記表示素子の表示領域のうち前記対象物の近傍に対応する領域に前記第1の関連情報を表示すると共に前記対象物から離れた位置に対応する領域に前記第2の関連情報を表示することを特徴とする。   In order to achieve the above object, an information terminal device of the present invention includes a display element, an object specifying unit, an image acquisition unit, a signal processing unit having a display processing unit, and an image information processing unit. The signal processing means performs processing for specifying an object in the acquired image from the acquired image acquired by the image acquisition means and the object specifying means, and the image information processing means is configured to detect the object from a predetermined database file. The display processing unit displays the first related information in an area corresponding to the vicinity of the object in the display area of the display element. In addition, the second related information is displayed in a region corresponding to a position away from the object.

また、好ましくは、前記対象物特定手段は視線検出手段であって、前記信号処理手段は前記視線検出手段によって取得した視線情報と前記取得画像から、前記取得画像内における注視点を特定する処理を行い、前記注視点に基づいて、前記取得画像内における対象物を特定する。   Preferably, the object specifying unit is a line-of-sight detection unit, and the signal processing unit performs a process of specifying a gazing point in the acquired image from the line-of-sight information acquired by the line-of-sight detection unit and the acquired image. And identify an object in the acquired image based on the gazing point.

また、好ましくは、前記対象物特定手段は前記情報端末装置に設けられた入力ボタンであって、前記信号処理手段は、該入力ボタンからの入力に基づいて、前記取得画像内における対象物を特定する。   Preferably, the object specifying means is an input button provided in the information terminal device, and the signal processing means specifies an object in the acquired image based on an input from the input button. To do.

また、好ましくは、前記第1の関連情報は前記対象物の直接的な意味を表わす直接情報であり、前記第2の関連情報は前記直接情報を更に詳しく説明した詳細情報であることを特徴とする。   Preferably, the first related information is direct information representing a direct meaning of the object, and the second related information is detailed information describing the direct information in more detail. To do.

また、好ましくは、前記情報端末装置は、前記対象物からの光を透過し、前記表示素子からの光を反射するビームコンバイナーを有することを特徴とする。   Preferably, the information terminal device includes a beam combiner that transmits light from the object and reflects light from the display element.

また、好ましくは、前記データベースは、前記情報端末装置の内部に設けられている。   Preferably, the database is provided inside the information terminal device.

また、上記の目的を達成するために本発明の情報表示システムは、前記情報端末装置と、前記情報端末装置の外部に設けられたデータベースとを有し、所定の情報伝送手段によって、前記データベースの情報を前記情報端末装置に送信することを特徴とする。   In order to achieve the above object, an information display system of the present invention includes the information terminal device and a database provided outside the information terminal device, and the database is provided by a predetermined information transmission means. Information is transmitted to the information terminal device.

本発明によれば、使用者は、情報端末装置を介してその対象を注視することで、注視対象の意味を容易に理解することができる。   According to the present invention, the user can easily understand the meaning of the gaze target by gaze at the target via the information terminal device.

本発明の実施の形態を説明する。まず、本実施形態の外観構成を図1及び図2を用いて説明する。図1は本実施例の携帯情報端末装置の概略図であり、図2は図1の携帯情報端末装置を使用している状態を上方から示す説明図である。本実施例における携帯情報端末装置は、これらの図に図示したように、本体部1と、画像表示用の表示素子11と、複数のスイッチからなる情報入力部12と、ビームコンバイナー13と、視線検出手段14と、画像取得手段15を備えている。ここで、表示素子11は、本体部1に一体的に取り付けられている。また、ビームコンバイナー13は、本体部1に折りたたみ可能に取り付けられている。本実施例では、表示素子11はLCD、ビームコンバイナー13はハーフミラー、画像取得手段15はCCDである。なお、情報入力部12は、必ずしも必要ではない。   An embodiment of the present invention will be described. First, the external configuration of the present embodiment will be described with reference to FIGS. FIG. 1 is a schematic diagram of the portable information terminal device of the present embodiment, and FIG. 2 is an explanatory diagram showing a state in which the portable information terminal device of FIG. 1 is used from above. As shown in these drawings, the portable information terminal device according to the present embodiment includes a main body unit 1, a display element 11 for image display, an information input unit 12 including a plurality of switches, a beam combiner 13, and a line of sight. Detection means 14 and image acquisition means 15 are provided. Here, the display element 11 is integrally attached to the main body 1. The beam combiner 13 is foldably attached to the main body 1. In this embodiment, the display element 11 is an LCD, the beam combiner 13 is a half mirror, and the image acquisition means 15 is a CCD. The information input unit 12 is not always necessary.

そして、本実施例の携帯情報端末装置は、図2に示されているように、使用状態においては、ビームコンバイナー13が表示素子11からの光111を、使用者の眼へと反射するようになっている。この構成により、使用者は、ビームコンバイナー13を通して見ることのできる外界像と、表示素子11に表示される電子像とを重畳して観察することができる。   As shown in FIG. 2, the portable information terminal device according to the present embodiment is configured such that, in use, the beam combiner 13 reflects the light 111 from the display element 11 to the user's eyes. It has become. With this configuration, the user can observe the external image that can be seen through the beam combiner 13 and the electronic image displayed on the display element 11 in a superimposed manner.

次に、本実施例の内部構成を、図3を用いて説明する。本体部1は内部に、信号処理手段16と、画像情報処理手段17を備えている。ここで、信号処理手段16は、注視点特定処理部161及び表示処理部162を有する。また、画像情報処理手段17は、画像マッチング処理部171及び画像情報取得処理部172を有する。   Next, the internal configuration of the present embodiment will be described with reference to FIG. The main body 1 includes a signal processing unit 16 and an image information processing unit 17 inside. Here, the signal processing unit 16 includes a gazing point identification processing unit 161 and a display processing unit 162. The image information processing unit 17 includes an image matching processing unit 171 and an image information acquisition processing unit 172.

この構成において、視線検出手段14によって、使用者の視線情報が検出される。また、画像取得手段15によって、使用者が見ている範囲の画像が取得される。そして、検出された視線情報と得られた画像の情報とから、注視点特定処理部161が、取得した画像内における使用者の注視点を特定する。   In this configuration, the line-of-sight information of the user is detected by the line-of-sight detection means 14. Further, the image acquisition means 15 acquires an image in a range that the user is viewing. Then, the gaze point identification processing unit 161 identifies the gaze point of the user in the acquired image from the detected line-of-sight information and the obtained image information.

次に、画像情報処理手段17において、画像マッチング処理部171が画像マッチング処理を行う。この処理は、取得された画像のうち、注視点と一致する対象物の画像の情報と、データベース18に存在するデータベースファイル181内の画像(参照画像)とで行われる。なお、本実施例では、データベース18は携帯情報端末の内部に設けられている。   Next, in the image information processing means 17, the image matching processing unit 171 performs image matching processing. This processing is performed using information on the image of the object that matches the point of gaze among the acquired images and the image (reference image) in the database file 181 existing in the database 18. In the present embodiment, the database 18 is provided inside the portable information terminal.

ここで、画像マッチングによって、注視点と一致する対象物の画像が特定された場合、関連情報取得処理部172が、データベースファイル181内から、参照画像に付与された関連情報を取得する。なお、参照画像には、少なくとも二つ以上の関連情報が付与されている。   Here, when an image of an object that matches the point of gaze is identified by image matching, the related information acquisition processing unit 172 acquires related information given to the reference image from the database file 181. Note that at least two pieces of related information are given to the reference image.

なお、データベース18は、外部装置(携帯情報端末とは別の情報端末)に設けてもよい。この場合、本体部1は、情報伝送手段(不図示)を有する。よって、携帯情報端末を有するシステムとなる。情報伝送手段としては、アンテナ、送受信機がある。このような通信手段によって、外部装置のデータベースの参照画像を画像マッチングに利用し、関連情報をデータベースから取得する。   Note that the database 18 may be provided in an external device (an information terminal different from the portable information terminal). In this case, the main body 1 has information transmission means (not shown). Therefore, the system has a portable information terminal. As information transmission means, there are an antenna and a transceiver. With such communication means, the reference image in the database of the external device is used for image matching, and related information is acquired from the database.

最後に信号処理手段16において、表示処理部162が表示素子11上に、関連情報の表示を行う。表示処理部162は表示素子11の表示領域のうち、使用者が注視している対象の近傍に対応する領域に、少なくとも一つの関連情報(以下、第1の関連情報という)を表示する。更に、表示処理部162は、注視している対象から離れた位置に対応する領域に、近傍に表示した関連情報とは異なる少なくとも一つの関連情報(以下、第2の関連情報という)を表示する。   Finally, in the signal processing unit 16, the display processing unit 162 displays related information on the display element 11. The display processing unit 162 displays at least one piece of related information (hereinafter, referred to as first related information) in a region corresponding to the vicinity of the target being watched by the user in the display region of the display element 11. Further, the display processing unit 162 displays at least one related information (hereinafter referred to as second related information) different from the related information displayed in the vicinity in an area corresponding to a position away from the target being watched. .

本実施例の携帯情報端末装置では、上記したように、表示処理部162が取得した関連情報を表示素子11上に表示する。そして、ビームコンバイナー13を介して、その関連情報を使用者が観察する。このような構成により、使用者は注視している観察対象(外界像)と関連情報(電子像)を重畳して観察することができる。   In the portable information terminal device according to the present embodiment, as described above, the related information acquired by the display processing unit 162 is displayed on the display element 11. Then, the user observes the related information via the beam combiner 13. With such a configuration, the user can observe the object to be observed (external field image) and the related information (electronic image) in a superimposed manner.

次に、対象物について説明する。対象物は、例えば、組織(会社や学校)のスローガンや商品のキャッチフレーズ、あるいは、会社の名前そのものである。一般に、スローガンやキャッチフレーズ、あるいは会社名は短い文章で構成されている。また、外国語や造語が用いられる場合もある。そのため、その文章や名前の意味を、容易に理解できないこともある。また、使用者の母国語以外の言語で表示されている場合、これらの持つ意味を容易に理解できないことがある。   Next, the object will be described. The target object is, for example, an organization (company or school) slogan, a product tagline, or a company name itself. In general, slogans, catchphrases, or company names are composed of short sentences. Foreign languages and coined words may also be used. For this reason, the meaning of the sentence or name may not be easily understood. In addition, when the language is displayed in a language other than the user's native language, the meaning of these may not be easily understood.

そこで、使用者はそのような対象物を、携帯情報端末装置を介して注視する。すると、上述したような処理が行われ、第1の関連情報と第2の関連情報が得られる。そして第1の関連情報と第2の関連情報が、重畳して表示される。ここで、第1の関連情報は注視対象の直接的な意味を表す直接情報である。また、第2の関連情報は注視対象について更に詳しく説明した詳細情報である。   Therefore, the user gazes at such an object through the portable information terminal device. Then, the processing as described above is performed, and the first related information and the second related information are obtained. Then, the first related information and the second related information are displayed in a superimposed manner. Here, the first related information is direct information representing the direct meaning of the gaze target. The second related information is detailed information that has been described in more detail with respect to the gaze target.

なお、対象物、第1の関連情報及び第2の関連情報を表示素子11上に表示させても良い。この場合、ビームコンバイナーは不要となる。   The object, the first related information, and the second related information may be displayed on the display element 11. In this case, a beam combiner is not necessary.

図4を用いて第1実施例を説明する。図4は、使用者が観察している重畳画像を示した図である。前述のように、第1の関連情報は、注視対象の直接的な意味を表す情報である。ここでは、注視対象が『Boys be ambitious』というのスローガンであったとする。   The first embodiment will be described with reference to FIG. FIG. 4 is a diagram showing a superimposed image observed by the user. As described above, the first related information is information representing the direct meaning of the gaze target. Here, it is assumed that the object of gaze is the slogan “Boys be ambitious”.

この場合、第1の関連情報は、その意味が使用者の母国語で記載された「少年よ、大志を抱け」となる。そして、この第1の関連情報が注視対象の近傍の位置Aに重畳して表示される。第2の関連情報は、注視対象について更に詳しく説明した情報である。第2の関連情報は、本実施例の場合、例えば、『Boys be ambitious』というスローガンが生まれた経緯とする。この経緯を説明する文章、例えば、「Boys be ambitiousは、アメリカからやって来たウィリアム・S・クラーク博士が日本を去る時に、教え子たちに贈った言葉である。」という文章が、注視対象から離れた位置Bに重畳して表示される。なお、本実施例では位置Bは重畳画像の左下方としている。   In this case, the first related information is “boy, hold ambition” whose meaning is described in the user's native language. Then, this first related information is displayed superimposed on the position A near the gaze target. The second related information is information that describes the gaze target in more detail. In the case of the present embodiment, the second related information is, for example, the background that the slogan “Boys be ambitious” was born. Sentences explaining this process, for example, “Boys be ambitious is a word given to the students when Dr. William S. Clarke from the United States left Japan.” It is displayed superimposed on position B. In this embodiment, the position B is the lower left of the superimposed image.

図5を用いて第2実施例を説明する。図5は、使用者が観察している重畳画像を示した図である。本実施例では、対象物を会社の公告塔とする。公告面の位置Cには会社名、位置Dにはスローガンが描かれている。   A second embodiment will be described with reference to FIG. FIG. 5 is a diagram showing a superimposed image observed by the user. In this embodiment, the object is the company's notice tower. The company name is drawn at position C on the announcement surface, and the slogan is drawn at position D.

ここで、スローガンの文字が使用者の母国語で描かれているとする。この場合、その意味は不明であっても、使用者はスローガンを読むことはできる。よって、このような場合は、第1の関連情報は表示されない。一方、第2の関連情報はスローガンを解説した文章、スローガンが生まれた経緯、あるいは会社理念である。本実施例では、スローガンから離れた位置Eに、スローガンを解説した文章、スローガンが生まれた経緯、あるいは会社理念が表示される。なお、この表示は、使用者の母国語で行われる。なお、本実施例では位置Bは重畳画像の右下方としている。   Here, it is assumed that the slogan character is drawn in the user's native language. In this case, even if the meaning is unknown, the user can read the slogan. Therefore, in such a case, the first related information is not displayed. On the other hand, the second related information is the text explaining the slogan, the background of the slogan, or the company philosophy. In this embodiment, at a position E away from the slogan, a text explaining the slogan, the background of the slogan was created, or the company philosophy is displayed. This display is performed in the user's native language. In this embodiment, the position B is set to the lower right of the superimposed image.

また、スローガンの文字が使用者の母国語で描かれていない場合、関連情報は使用者の母国語で表示する。なお、この場合には母国語を特定するために、予め母国語を特定する機能を情報端末に備えておく。   If the slogan character is not drawn in the user's native language, the related information is displayed in the user's native language. In this case, in order to specify the native language, the information terminal is provided with a function for identifying the native language in advance.

図6を用いて第3実施例を説明する。図6は、使用者が観察している重畳画像を示した図である。スローガンやキャッチフレーズは、イラストで表現されている場合もある。本実施例では、対象物を会社の公告塔とする。公告面の位置Cには会社名、位置Fにはイラストが描かれている。   A third embodiment will be described with reference to FIG. FIG. 6 is a diagram showing a superimposed image observed by the user. Slogans and catchphrases are sometimes expressed in illustrations. In this embodiment, the object is the company's notice tower. A company name is drawn at position C on the announcement surface, and an illustration is drawn at position F.

本実施例では、第1の関連情報はスローガンとなる。このスローガンをイラストの近傍Gに表示する。一方、第2の情報は、スローガンを解説した文章、スローガンが生まれた経緯、あるいは会社理念である。本実施例では、スローガンから離れた位置Eにスローガンを解説した文章が表示される。なお、本実施例では位置Eは重畳画像の右下方としている。   In the present embodiment, the first related information is a slogan. This slogan is displayed in the vicinity G of the illustration. On the other hand, the second information is a sentence explaining the slogan, the background of the slogan, or the company philosophy. In this embodiment, a sentence explaining the slogan is displayed at a position E away from the slogan. In this embodiment, the position E is set to the lower right of the superimposed image.

図7を用いて第4実施例を説明する。図7は、使用者が観察している重畳画像を示した図である。本実施例では、対象物を美術品の壷とする。壷の前には、壷の名称「××××壷」と記載したプレートが配置されている。   A fourth embodiment will be described with reference to FIG. FIG. 7 is a diagram illustrating a superimposed image observed by the user. In this embodiment, the object is a bag of art. In front of the coffin, a plate with the name of the coffin “XXXXXX” is arranged.

美術品の中には、読みづらい名称のものがある。そこで、本実施例では、第1の関連情報はその名称の読み方である。この読み方を、名称が記載されたプレートの近傍Hにひらがなで表示する。一方、第2の関連情報はこの壷に関する解説文である。例えば、「この種の壺は、薬を納めた壺と似ていることから、薬壺と呼ばれることがある。しかし……」という文章である。このような文章が、プレートから離れた位置Iに表示される。なお、本実施例では位置Iは重畳画像の右上方としている。   Some artworks have names that are difficult to read. Therefore, in this embodiment, the first related information is how to read the name. This reading is displayed in hiragana in the vicinity H of the plate on which the name is written. On the other hand, the second related information is a commentary about this bag. For example, the sentence “This kind of jar is sometimes called a jar because it resembles a jar with pills. But ...”. Such a sentence is displayed at a position I away from the plate. In this embodiment, the position I is set to the upper right of the superimposed image.

図8を用いて第5実施例を説明する。視線検出手段を設けない情報端末装置の、使用時の状態を上方から見た図である。   A fifth embodiment will be described with reference to FIG. It is the figure which looked at the state at the time of use of the information terminal device which does not provide a gaze detection means from the upper direction.

この場合、注視点は観察範囲の特定位置に予め決められている。本実施例では、注視点は観察範囲の中央としている。対象物の特定を行うには、まず、使用者が対象物を観察範囲の中央に位置するように、情報端末装置を移動させる。そして、対象物が観察範囲の中央に位置した状態で特定ボタン19を押す。この動作によって、対象物の特定が行われる。なお、関連情報の表示は、実施例1乃至実施例4のいずれかを同様に行われる。   In this case, the gazing point is predetermined at a specific position in the observation range. In this embodiment, the gazing point is the center of the observation range. To specify an object, first, the user moves the information terminal device so that the user is positioned at the center of the observation range. Then, the specific button 19 is pressed in a state where the object is located at the center of the observation range. By this operation, the object is specified. The related information is displayed in the same manner as in any of the first to fourth embodiments.

本実施例では、視線検出手段を設ける必要がない。よって、形態情報端末装置の構成を簡素化できる。   In this embodiment, it is not necessary to provide a line-of-sight detection means. Therefore, the configuration of the form information terminal device can be simplified.

携帯情報端末装置の外観構成を示す概略図である。It is the schematic which shows the external appearance structure of a portable information terminal device. 携帯情報端末装置の使用時の状態を上方から示した図である。It is the figure which showed the state at the time of use of a portable information terminal device from upper direction. 携帯情報端末装置の内部構成を示す概略図である。It is the schematic which shows the internal structure of a portable information terminal device. 第1実施例であって、第1の関連情報と第2の関連情報が表示された状態を示す図である。It is a 1st Example, Comprising: It is a figure which shows the state by which the 1st relevant information and the 2nd relevant information were displayed. 第2実施例であって、第1の関連情報と第2の関連情報が表示された状態を示す図である。It is 2nd Example and is a figure which shows the state by which the 1st relevant information and the 2nd relevant information were displayed. 第3実施例であって、第1の関連情報と第2の関連情報が表示された状態を示す図である。It is 3rd Example, Comprising: It is a figure which shows the state in which the 1st relevant information and the 2nd relevant information were displayed. 第4実施例であって、第1の関連情報と第2の関連情報が表示された状態を示す図である。It is a 4th Example and is a figure showing the state where the 1st pertinent information and the 2nd pertinent information were displayed. 第5実施例であって、携帯情報端末装置の使用時の状態を上方から示した図である。It is 5th Example, Comprising: It is the figure which showed the state at the time of use of a portable information terminal device from upper direction.

符号の説明Explanation of symbols

1 本体部
11 表示素子
111 表示素子からの光
12 情報入力部
13 ビームコンバイナー
14 視線検出手段
15 画像取得手段
16 信号処理手段
161 注視点特定処理部
162 表示処理部
17 画像情報処理手段
171 画像マッチング処理部
172 画像情報取得処理部
18 データベース
181 データベースファイル
19 特定ボタン
DESCRIPTION OF SYMBOLS 1 Main-body part 11 Display element 111 Light from display element 12 Information input part 13 Beam combiner 14 Eye-gaze detection means 15 Image acquisition means 16 Signal processing means 161 Gaze point specific processing part 162 Display processing part 17 Image information processing means 171 Image matching process Section 172 Image information acquisition processing section 18 Database 181 Database file 19 Specific button

Claims (7)

表示素子と、対象物特定手段と、画像取得手段と、表示処理部を有する信号処理手段と、画像情報処理手段と、を備え、
前記信号処理手段は、前記画像取得手段によって取得した取得画像と前記対象物特定手段とから、該取得画像内における対象物を特定する処理を行い、
前記画像情報処理手段は、所定のデータベースファイルから、前記対象物に関連する第1の関連情報と第2の関連情報を少なくとも取得し、
前記表示処理部は、前記表示素子の表示領域のうち、前記対象物の近傍に対応する領域に前記第1の関連情報を表示すると共に、前記対象物から離れた位置に対応する領域に前記第2の関連情報を表示することを特徴とする情報端末装置。
A display element, an object specifying unit, an image acquisition unit, a signal processing unit having a display processing unit, and an image information processing unit,
The signal processing means performs processing for specifying an object in the acquired image from the acquired image acquired by the image acquisition means and the target object specifying means,
The image information processing means acquires at least first related information and second related information related to the object from a predetermined database file,
The display processing unit displays the first related information in a region corresponding to the vicinity of the target object in a display region of the display element, and displays the first related information in a region corresponding to a position away from the target object. 2. An information terminal device characterized by displaying two related information.
前記対象物特定手段は視線検出手段であって、
前記信号処理手段は、前記視線検出手段によって取得した視線情報と前記取得画像から、前記取得画像内における注視点を特定する処理を行い、前記注視点に基づいて、前記取得画像内における対象物を特定することを特徴とする請求項1に記載の情報端末装置。
The object specifying means is line-of-sight detection means,
The signal processing means performs processing for specifying a gazing point in the acquired image from the line-of-sight information acquired by the line-of-sight detection unit and the acquired image, and based on the gazing point, an object in the acquired image is determined. The information terminal device according to claim 1, wherein the information terminal device is specified.
前記対象物特定手段は、前記情報端末装置に設けられた入力ボタンであって、
前記信号処理手段は、該入力ボタンからの入力に基づいて、前記取得画像内における対象物を特定することを特徴とする請求項1に記載の情報端末装置。
The object specifying means is an input button provided on the information terminal device,
The information terminal device according to claim 1, wherein the signal processing unit specifies an object in the acquired image based on an input from the input button.
前記第1の関連情報は前記対象物の直接的な意味を表わす直接情報であり、前記第2の関連情報は前記直接情報を更に詳しく説明した詳細情報であることを特徴とする請求項1乃至請求項3のいずれか1項に記載の情報端末装置。   The first related information is direct information representing a direct meaning of the object, and the second related information is detailed information explaining the direct information in more detail. The information terminal device according to claim 3. 前記対象物からの光を透過し、前記表示素子からの光を反射するビームコンバイナを有することを特徴とする請求項1乃至請求項4のいずれか1項に記載の情報端末装置。   5. The information terminal device according to claim 1, further comprising a beam combiner that transmits light from the object and reflects light from the display element. 6. 前記データベースは、前記情報端末装置の内部に設けられていることを特徴とする請求項1乃至請求項5のいずれか1項に記載の情報端末装置。   The information terminal apparatus according to claim 1, wherein the database is provided inside the information terminal apparatus. 請求項1乃至請求項5のいずれか1項に記載の前記情報端末装置と、前記情報端末装置の外部に設けられたデータベースとを有し、所定の情報伝送手段によって、前記データベースの情報を前記情報端末装置に送信することを特徴とする情報表示システム。   The information terminal device according to any one of claims 1 to 5, and a database provided outside the information terminal device, wherein information of the database is obtained by a predetermined information transmission unit. An information display system which transmits to an information terminal device.
JP2004339968A 2004-11-25 2004-11-25 Information terminal device and system Withdrawn JP2006154890A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004339968A JP2006154890A (en) 2004-11-25 2004-11-25 Information terminal device and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004339968A JP2006154890A (en) 2004-11-25 2004-11-25 Information terminal device and system

Publications (1)

Publication Number Publication Date
JP2006154890A true JP2006154890A (en) 2006-06-15

Family

ID=36633167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004339968A Withdrawn JP2006154890A (en) 2004-11-25 2004-11-25 Information terminal device and system

Country Status (1)

Country Link
JP (1) JP2006154890A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246762A (en) * 2012-05-29 2013-12-09 Kddi Corp Information display device
WO2014024649A1 (en) * 2012-08-06 2014-02-13 ソニー株式会社 Image display device and image display method
JP2015043180A (en) * 2013-08-26 2015-03-05 ブラザー工業株式会社 Image processing program
WO2019135313A1 (en) * 2018-01-04 2019-07-11 ソニー株式会社 Information processing device, information processing method and program
JP2021064291A (en) * 2019-10-16 2021-04-22 日本たばこ産業株式会社 Information processing device, program, and information processing system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246762A (en) * 2012-05-29 2013-12-09 Kddi Corp Information display device
WO2014024649A1 (en) * 2012-08-06 2014-02-13 ソニー株式会社 Image display device and image display method
US9618759B2 (en) 2012-08-06 2017-04-11 Sony Corporation Image display apparatus and image display method
US10670880B2 (en) 2012-08-06 2020-06-02 Sony Corporation Image display apparatus and image display method
JP2015043180A (en) * 2013-08-26 2015-03-05 ブラザー工業株式会社 Image processing program
WO2019135313A1 (en) * 2018-01-04 2019-07-11 ソニー株式会社 Information processing device, information processing method and program
JPWO2019135313A1 (en) * 2018-01-04 2020-12-17 ソニー株式会社 Information processing equipment, information processing methods and programs
US11314326B2 (en) 2018-01-04 2022-04-26 Sony Corporation Information processing device, information processing method, and program for determining a user gaze
JP7272278B2 (en) 2018-01-04 2023-05-12 ソニーグループ株式会社 Information processing device, information processing method and program
JP2021064291A (en) * 2019-10-16 2021-04-22 日本たばこ産業株式会社 Information processing device, program, and information processing system
JP7319888B2 (en) 2019-10-16 2023-08-02 日本たばこ産業株式会社 Information processing device, program and information processing system

Similar Documents

Publication Publication Date Title
US11073901B2 (en) Display device, control method for display device, and computer program
US10395116B2 (en) Dynamically created and updated indoor positioning map
US10585488B2 (en) System, method, and apparatus for man-machine interaction
Szpiro et al. Finding a store, searching for a product: a study of daily challenges of low vision people
JP6040715B2 (en) Image display apparatus, image display method, and computer program
CN104469464B (en) Image display device, method for controlling image display device, computer program, and image display system
US9523854B2 (en) Head-mounted display, program for controlling head-mounted display, and method of controlling head-mounted display
CN103092338B (en) Update by individualized virtual data and print content
EP3286619B1 (en) A scene image analysis module
US20140285520A1 (en) Wearable display device using augmented reality
Kerr et al. Wearable mobile augmented reality: evaluating outdoor user experience
CN103064512A (en) Technology of using virtual data to change static printed content into dynamic printed content
JP6111659B2 (en) Display device and control method of display device
JP2010102215A (en) Display device, image processing method and computer program
JP2006119297A (en) Information terminal device
US10657927B2 (en) System for providing hands-free input to a computer
KR20140046652A (en) Learning monitering device and method for monitering of learning
CN103123578B (en) Virtual data is shown as the content printed
Chatzopoulos et al. Hyperion: A wearable augmented reality system for text extraction and manipulation in the air
US10642353B2 (en) Non-transitory computer-readable storage medium, information processing apparatus, and information processing method
JP2006154890A (en) Information terminal device and system
CN107223224A (en) A kind of amblyopia householder method and device
JP2007200261A (en) Image information search system based on glasses type display
JP2002207732A (en) Translation device
KR200398885Y1 (en) Augmented reality experiencing telescope by using visual tracking

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080205