JP2006155084A - Information terminal unit and state display system - Google Patents

Information terminal unit and state display system Download PDF

Info

Publication number
JP2006155084A
JP2006155084A JP2004342858A JP2004342858A JP2006155084A JP 2006155084 A JP2006155084 A JP 2006155084A JP 2004342858 A JP2004342858 A JP 2004342858A JP 2004342858 A JP2004342858 A JP 2004342858A JP 2006155084 A JP2006155084 A JP 2006155084A
Authority
JP
Japan
Prior art keywords
observation target
unit
behavior
state
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004342858A
Other languages
Japanese (ja)
Other versions
JP4573634B2 (en
Inventor
Masako Okazaki
理子 岡崎
Hideki Osada
英喜 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004342858A priority Critical patent/JP4573634B2/en
Publication of JP2006155084A publication Critical patent/JP2006155084A/en
Application granted granted Critical
Publication of JP4573634B2 publication Critical patent/JP4573634B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Viewfinders (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To eliminate a feeling of separation between an observed object and the state of the observed object by superposing the state of an organism such as a plant or an animal on the organism to display it, and to translate the state of also an organism raising no cry, i.e., an organism uttering no voice, to convey the state intelligibly. <P>SOLUTION: This information terminal unit is provided with an image display part 50; a combiner 60 transmitting light from the real visual field in a visual axis direction of a user and displaying information displayed on the image display part 50, optically superposed as a virtual image in the real visual field; an observed object detecting part for detecting the observed object existing in the real visual field through the combiner 60; a determining part for determining whether the observed object exists within the real visual field based on the detection result of the observed object detecting part; a behavior detecting part for detecting the behavior of the observed object in the case of determining the observed object to exist within the real visual field by the determining part; a state analysis part for analyzing the state of the observed object based on the behavior of the observed object detected by the behavior detecting part; and an image display control part for displaying the analysis result of the state analysis part on the image display part 50. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、植物、動物などの生物の挙動からその生物の状態を解析し、その生物とともにその生物の状態を表示させる情報端末装置及び状態表示システムに関するものである。   The present invention relates to an information terminal device and a state display system for analyzing a state of a living organism such as a plant or an animal and displaying the state of the living organism together with the living organism.

従来、赤ん坊、ペット、又は家畜などの動物の感情を人間が理解できるように翻訳し、この翻訳内容を文字や音声により利用者に通知する翻訳装置が知られている。
例えば、特開2002−278583号公報(特許文献1)には、犬の鳴き方の違いによる犬の感情を音声又は画像として出力することにより、犬とのコミュニケーションを図ることのできる技術が開示されている。
上記特許文献1には、飼い犬の首輪に取り付けられた犬側ケースから送信された犬の鳴き声を利用者が保有する飼い主側ケースにて受信し、受信した犬の鳴き声に基づいて犬の感情を解析し、この犬の感情を文字や音声により飼い主へ伝える技術が開示されている。
特開2002−278583号公報(第1−3頁、第1−4図)
2. Description of the Related Art Conventionally, there has been known a translation device that translates emotions of animals such as babies, pets, or domestic animals so that humans can understand them, and notifies the user of the translated contents by text or voice.
For example, Japanese Patent Application Laid-Open No. 2002-278583 (Patent Document 1) discloses a technique capable of communicating with a dog by outputting a dog's emotion as a sound or an image due to a difference in how the dog sounds. ing.
In the above-mentioned Patent Document 1, a dog's call transmitted from a dog-side case attached to the collar of the dog is received by the owner-side case held by the user, and the dog's emotion is expressed based on the received dog's call. A technique is disclosed that analyzes and conveys the emotion of the dog to the owner by text or voice.
Japanese Patent Laid-Open No. 2002-278583 (page 1-3, FIG. 1-4)

しかしながら、上記特許文献1に示される技術によれば、犬の感情が、犬と乖離された状態で飼い主に通知されるため、犬の感情を把握しづらいという問題があった。
更に、上記特許文献1に示される技術では、翻訳対象の生物が、犬などのように、音声を発する生物に限られてしまうため、鳴き声などを発しない、つまり、音声を発しない生物の感情などは、翻訳することができないという問題があった。
However, according to the technique disclosed in Patent Document 1, since the owner's emotion is notified to the owner in a state of being separated from the dog, there is a problem that it is difficult to grasp the dog's emotion.
Furthermore, in the technique disclosed in Patent Document 1, since the organism to be translated is limited to an organism that emits speech, such as a dog, the emotion of the organism that does not make a cry, that is, does not emit speech. There was a problem that they could not be translated.

この発明は上述した事情に鑑みてなされたものであって、植物、動物などの生物の状態をその生物に重畳させて表示することにより、観察対象とその観察対象の状態との乖離感を解消するとともに、鳴き声を挙げない生物、つまり、音声を発しない生物についても、その状態を翻訳し、その状態をわかりやすく伝えることができる情報端末装置及び状態表示システムを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and by displaying the state of a living thing such as a plant or an animal superimposed on the living thing, the feeling of divergence between the observation target and the state of the observation target is eliminated. In addition, an object of the present invention is to provide an information terminal device and a state display system that can translate the state of a creature that does not raise a call, that is, a creature that does not emit voice, and can easily convey the state.

上記目的を達成するために、本発明は、以下の手段を提供する。
本発明は、画像表示部と、使用者の視線方向の実視野からの光を透過するとともに前記画像表示部に表示された情報を光学的に虚像として前記実視野中に重畳的に表示する半透過光学素子と、前記半透過光学素子を介した実視野中に存在する観察対象を検出する観察対象検出部と、前記観察対象の挙動を検出する挙動検出部と、前記挙動検出部によって検出された観察対象の挙動に基づいて、前記観察対象の状態を解析する状態解析部と、前記状態解析部の解析結果を前記画像表示部に表示させる画像表示制御部とを備える情報端末装置を提供する。
In order to achieve the above object, the present invention provides the following means.
The present invention relates to an image display unit and a semi-transparent display unit for transmitting light from a real field of view in a user's line of sight and superimposing and displaying information displayed on the image display unit as a virtual image in the real field of view. A transmission optical element, an observation target detection unit for detecting an observation target existing in a real field through the semi-transmission optical element, a behavior detection unit for detecting the behavior of the observation target, and the behavior detection unit An information terminal device comprising: a state analysis unit that analyzes the state of the observation target based on the behavior of the observation target; and an image display control unit that displays an analysis result of the state analysis unit on the image display unit. .

上記構成によれば、画像表示部に表示された情報は、半透過光学素子により、半透過光学素子を透過して視認される実視野中に、光学的に虚像として重畳的に表示される。半透過光学素子を介した実視野中に存在する動物や植物などの観察対象は、観察対象検出部により検出され、この観察対象の挙動が挙動検出部により検出される。そして、観察対象の挙動に基づいて、その観察対象の状態が状態解析部により解析される。状態解析部の解析結果は、画像制御部により、画像表示部に表示されることとなる。
これにより、動物や植物などの観察対象の状態が、半透過光学素子により、実視野中に存在する観察対象に重畳的に表示されるので、植物、動物などの観察対象と、その観察対象の状態とを一体性をもたせた形で表示させることができる。
上記観察対象の挙動には、観察対象の動作などのほか、表情の動きなども含まれる。
According to the above configuration, the information displayed on the image display unit is optically superimposed and displayed as a virtual image by the semi-transmissive optical element in an actual visual field that is viewed through the semi-transmissive optical element. Observation objects such as animals and plants existing in the real field of view through the semi-transmissive optical element are detected by the observation object detection unit, and the behavior of the observation object is detected by the behavior detection unit. Then, based on the behavior of the observation target, the state of the observation target is analyzed by the state analysis unit. The analysis result of the state analysis unit is displayed on the image display unit by the image control unit.
As a result, the state of the observation target such as an animal or a plant is displayed superimposed on the observation target existing in the real field of view by the transflective optical element. It is possible to display the state in an integrated manner.
The behavior of the observation target includes not only the movement of the observation target but also the movement of facial expressions.

本発明は、画像表示部と、使用者の視線方向の実視野からの光を透過するとともに前記画像表示部に表示された情報を光学的に虚像として前記実視野中に重畳的に表示する半透過光学素子と、前記半透過光学素子を介した実視野中に存在する前記観察対象を検出する観察対象検出部と、前記観察対象検出部の検出結果に基づいて、前記観察対象が前記実視野中に存在するか否かを判定する判定部と、前記判定部によって前記観察対象が前記実視野中に存在すると判定された場合に、前記観察対象の挙動を検出する挙動検出部と、前記挙動検出部によって検出された観察対象の挙動に基づいて、前記観察対象の状態を解析する状態解析部と、前記状態解析部の解析結果を前記画像表示部に表示させる画像表示制御部とを備える情報端末装置を提供する。   The present invention relates to an image display unit and a semi-transparent display unit that transmits light from a real field of view in a user's line of sight and superimposes information displayed on the image display unit as an optical virtual image in the real field of view. Based on a transmission optical element, an observation target detection unit that detects the observation target existing in the real field through the semi-transmission optical element, and the observation target is the real field based on a detection result of the observation target detection unit A determination unit that determines whether or not the object is present, a behavior detection unit that detects the behavior of the observation target when the determination unit determines that the observation target is present in the real field of view, and the behavior Information including a state analysis unit that analyzes the state of the observation target based on the behavior of the observation target detected by the detection unit, and an image display control unit that displays the analysis result of the state analysis unit on the image display unit Provide terminal equipment To.

上記構成によれば、画像表示部に表示された情報は、半透過光学素子により、半透過光学素子を透過して視認される実視野中に、光学的に虚像として重畳的に表示される。半透過光学素子を介した実視野中に存在する動物や植物などの観察対象は、観察対象検出部により検出され、この検出結果に基づいて、実視野中に観察対象が存在するか否かが判定部により判定される。この結果、実視野中に観察対象が存在していた場合には、その観察対象の挙動が挙動検出部により検出され、検出された挙動に基づいて、その観察対象の状態が状態解析部により解析される。状態解析部の解析結果は、画像制御部により、画像表示部に表示されることとなる。
これにより、動物や植物などの観察対象の状態が、半透過光学素子により、実視野中に存在する観察対象に重畳的に表示されるので、植物、動物などの観察対象と、その観察対象の状態とを一体性をもたせた形で表示させることができる。
上記観察対象の挙動には、観察対象の動作などのほか、表情の動きなども含まれる。
According to the above configuration, the information displayed on the image display unit is optically superimposed and displayed as a virtual image by the semi-transmissive optical element in an actual visual field that is viewed through the semi-transmissive optical element. An observation target such as an animal or a plant existing in the real field through the semi-transmissive optical element is detected by the observation target detection unit, and based on the detection result, whether or not the observation target exists in the real field is determined. It is determined by the determination unit. As a result, when the observation target exists in the real field of view, the behavior of the observation target is detected by the behavior detection unit, and the state of the observation target is analyzed by the state analysis unit based on the detected behavior. Is done. The analysis result of the state analysis unit is displayed on the image display unit by the image control unit.
As a result, the state of the observation target such as an animal or a plant is displayed superimposed on the observation target existing in the real field of view by the transflective optical element. It is possible to display the state in an integrated manner.
The behavior of the observation target includes not only the movement of the observation target but also the movement of facial expressions.

本発明の情報端末装置において、前記観察対象検出部が、前記実視野の方向を撮像する撮像部を備え、前記判定部は、前記撮像部から出力される画像情報と予め登録されている観察対象の画像情報とを照合することにより、前記観察対象が前記実視野中に存在するか否かを判定しても良い。   In the information terminal device according to the aspect of the invention, the observation target detection unit includes an imaging unit that images the direction of the real field of view, and the determination unit is preliminarily registered with the image information output from the imaging unit. It is also possible to determine whether or not the observation object exists in the real field of view by collating with the image information.

上記構成によれば、実視野の方向の風景が撮像部により撮像され、撮像された風景の画像に、予め登録されている観察対象の画像情報、例えば、輪郭画像が含まれているか否かが判定部により判定されることによって、実視野中に観察対象が存在するか否かが判定される。これにより、高い精度で、且つ、容易に判定を行うことが可能となる。   According to the above configuration, a landscape in the direction of the real field of view is captured by the imaging unit, and whether or not the captured landscape image includes pre-registered image information of an observation target, for example, a contour image. By determining by the determination unit, it is determined whether or not the observation target exists in the real field of view. This makes it possible to make a determination with high accuracy and with ease.

本発明の情報端末装置において、前記観察対象検出部が、前記観察対象に設けられた発信機から発せられる信号を受信する受信機を備え、前記判定部は、前記発信機から発せられた信号が前記受信機により受信されたか否かにより、前記観察対象が前記実視野中に存在するか否かを判定しても良い。   In the information terminal device of the present invention, the observation object detection unit includes a receiver that receives a signal emitted from a transmitter provided in the observation object, and the determination unit receives a signal emitted from the transmitter. It may be determined whether or not the observation target exists in the real field of view based on whether or not the signal is received by the receiver.

上記構成によれば、観察対象に設けられた発信機から発せられた信号が受信機により受信されたか否かを判定部が判定することにより、観察対象が実視野中に存在するか否かが判定される。これにより、非常に容易に判定を行うことが可能となる。   According to the above configuration, whether or not the observation target exists in the real field of view is determined by determining whether or not the signal emitted from the transmitter provided in the observation target is received by the receiver. Determined. This makes it possible to make a determination very easily.

本発明の情報端末装置において、前記観察対象検出部が、位置及び方向を特定する方位情報測定部を備え、前記判定部は、前記方位情報測定部により特定された位置及び方向に基づいて決定される所定の範囲内に、予め登録されている観察対象が存在するか否かを判定することにより、前記観察対象が前記実視野中に存在するか否かを判定しても良い。   In the information terminal device of the present invention, the observation target detection unit includes an orientation information measurement unit that identifies a position and a direction, and the determination unit is determined based on the position and direction identified by the orientation information measurement unit. It may be determined whether or not the observation object exists in the real field of view by determining whether or not the observation object registered in advance exists within a predetermined range.

上記構成によれば、実視野の位置及び方向が方位情報測定部により特定され、特定された位置及び方向に基づいて決定される所定の範囲内、例えば、方位情報測定部により特定された位置を中心として、方位情報測定部により特定された方向に描かれる扇状の範囲内に、予め登録されている観察対象が属するか否かが判定部により判定されることによって、実視野中に観察対象が存在するか否かが判定される。
これにより、植物などのように、一定の場所に固定されているような場合には、非常に容易に、且つ、高い精度で判定を行うことが可能となる。
According to the above configuration, the position and direction of the real field of view are specified by the azimuth information measurement unit, and within a predetermined range determined based on the specified position and direction, for example, the position specified by the azimuth information measurement unit As the center, the determination unit determines whether or not the observation object registered in advance is within the fan-shaped range drawn in the direction specified by the azimuth information measurement unit. It is determined whether or not it exists.
Thereby, when it is fixed to a certain place like a plant etc., it becomes possible to determine very easily and with high accuracy.

本発明の情報端末装置において、前記挙動検出部が、前記観察対象を撮像する撮像部と、前記撮像部により取得された画像に基づいて、予め登録されている前記観察対象の特徴点を抽出する特徴点抽出部とを備え、前記特徴点抽出部により抽出された特徴点の変位に基づいて前記観察対象の挙動を検出しても良い。   In the information terminal device of the present invention, the behavior detection unit extracts a feature point of the observation target registered in advance based on an imaging unit that images the observation target and an image acquired by the imaging unit. A feature point extraction unit, and the behavior of the observation target may be detected based on the displacement of the feature point extracted by the feature point extraction unit.

上記構成によれば、観察対象が撮像部により撮像され、撮像部により取得された画像情報から、予め登録されている特徴点が特徴点抽出部により抽出される。そして、予め登録されている当該観察対象の特徴点の位置や形状と、今回抽出された特徴点の位置や形状などを比較し、その変位などを検出することにより、観察対象の挙動、例えば、表情の変化を検出することが可能となる。
また、本発明の情報端末装置において、観察対象検出部が実視野の方向を撮像する撮像部を備えている場合には、その撮像部により取得された画像情報を用いて上述の特徴点の抽出を行うことが好ましい。
According to the above configuration, the observation target is imaged by the imaging unit, and the feature points registered in advance are extracted by the feature point extraction unit from the image information acquired by the imaging unit. Then, by comparing the position and shape of the feature point of the observation target registered in advance with the position and shape of the feature point extracted this time, and detecting the displacement or the like, the behavior of the observation target, for example, It becomes possible to detect changes in facial expressions.
Further, in the information terminal device of the present invention, when the observation target detection unit includes an imaging unit that images the direction of the real field of view, the above-described feature point extraction is performed using the image information acquired by the imaging unit. It is preferable to carry out.

本発明の情報端末装置において、前記挙動検出部が、前記観察対象に設けられている発信機からの信号を検出することにより、前記観察対象の挙動を検出しても良い。   In the information terminal device of the present invention, the behavior detection unit may detect the behavior of the observation target by detecting a signal from a transmitter provided in the observation target.

上記構成によれば、例えば、犬や猫などのペットの首輪などに取り付けられた発信機から発せられる信号(電波)が、挙動検出部により受信される。そして、この電波に基づいて、観察対象の挙動が挙動検出部により検出される。これにより、犬や猫などの観察対象の挙動を容易に且つ高い精度で検出することが可能となる。
また、本発明の情報端末装置において、観察対象検出部が観察対象に設けられている発信機から発せられる信号を受信する受信機を備えている場合には、この受信機により受信された信号を用いて、観察対象の挙動を検出するようにしても良い。
According to the above configuration, for example, a signal (radio wave) emitted from a transmitter attached to a collar of a pet such as a dog or cat is received by the behavior detection unit. Based on this radio wave, the behavior of the observation target is detected by the behavior detection unit. This makes it possible to easily detect the behavior of an observation target such as a dog or cat with high accuracy.
Further, in the information terminal device of the present invention, when the observation target detection unit includes a receiver that receives a signal emitted from a transmitter provided in the observation target, the signal received by the receiver It may be used to detect the behavior of the observation target.

本発明の情報端末装置において、前記状態解析部が、前記観察対象の挙動と状態とを対応付けて記憶するデータベースと、前記挙動検出部により取得された挙動に対応する前記観察対象の状態を前記データベースから抽出する抽出部とを備えていても良い。   In the information terminal device of the present invention, the state analysis unit associates and stores the behavior and state of the observation target, and the state of the observation target corresponding to the behavior acquired by the behavior detection unit You may provide the extraction part extracted from a database.

上記構成によれば、データベースには、観察対象の挙動と状態とが対応付けられて格納されている。そして、挙動検出部により検出された観察対象の挙動に対応する状態が、抽出部により、データベースから抽出される。これにより、非常に容易に、且つ、速やかに生物の状態を解析することが可能となる。
例えば、植物が観察対象の場合には、葉の揺れの振幅や葉の向きなどと、その状態とが対応付けられて、データベースに登録されている。
また、例えば、動物が観察対象の場合には、動物の動く速度、他の動物との距離、表情などに、その動物の状態が対応付けられて、データベースに登録されている。
According to the above configuration, the observation target behavior and state are stored in the database in association with each other. Then, the state corresponding to the behavior of the observation target detected by the behavior detection unit is extracted from the database by the extraction unit. Thereby, it becomes possible to analyze the state of a living organism very easily and quickly.
For example, when a plant is an observation target, the amplitude of leaf shake, the direction of the leaf, and the like are associated with the state and registered in the database.
Further, for example, when an animal is an observation target, the state of the animal is registered in the database in association with the moving speed of the animal, the distance from other animals, the facial expression, and the like.

本発明の情報端末装置において、前記判定部により、前記観察対象が前記実視野中に存在すると判定された場合に、前記挙動検出部が起動しても良い。   In the information terminal device of the present invention, the behavior detection unit may be activated when the determination unit determines that the observation target exists in the real field of view.

上記構成によれば、実視野中に観察対象が存在する場合に限って、挙動検出部が起動するので、電力の消費を抑えることが可能となる。なお、挙動検出部だけでなく、状態解析部、画像表示部、半透過光学素子についても同様とすることにより、電力消費を更に抑えることが可能となる。   According to the above configuration, since the behavior detection unit is activated only when an observation target is present in the real field of view, power consumption can be suppressed. The power consumption can be further suppressed by making the same not only for the behavior detection unit but also for the state analysis unit, the image display unit, and the transflective optical element.

本発明は、少なくとも画像表示部、使用者の視線方向の実視野からの光を透過するとともに前記画像表示部に表示された情報を光学的に虚像として前記実視野中に重畳的に表示する半透過光学素子を備える情報端末装置と、前記半透過光学素子を介した実視野中に存在する前記観察対象を検出する観察対象検出部と、前記観察対象検出部の検出結果に基づいて、前記観察対象が前記実視野中に存在するか否かを判定する判定部と、前記判定部によって前記観察対象が前記実視野中に存在すると判定された場合に、前記観察対象の挙動を検出する挙動検出部と、前記挙動検出部によって検出された観察対象の挙動に基づいて、前記観察対象の状態を解析する状態解析部を備え、前記状態解析部の解析結果を前記情報端末装置の前記画像表示部に表示させる状態表示システムを提供する。   According to the present invention, at least an image display unit transmits light from a real field of view in a user's line of sight, and information displayed on the image display unit is optically displayed as a virtual image in a superimposed manner in the real field of view. An information terminal device comprising a transmission optical element, an observation target detection unit for detecting the observation target existing in an actual visual field via the semi-transmission optical element, and the observation based on the detection result of the observation target detection unit A determination unit that determines whether or not an object exists in the real field of view, and a behavior detection that detects the behavior of the observation object when the determination unit determines that the observation object exists in the real field of view. And a state analysis unit that analyzes the state of the observation target based on the behavior of the observation target detected by the behavior detection unit, and the image display unit of the information terminal device displays the analysis result of the state analysis unit In Providing status display system that presents.

本発明の情報端末装置又は状態表示システムによれば、半透過光学素子を通して視認される実視野中に存在する観察対象に対して、その観察対象の状態を重畳的に表示させるので、観察対象とその観察対象の状態との乖離を解消し、利用者に対して、観察対象の状態をわかりやすく伝えることができるという効果を奏する。
更に、本発明の情報端末装置又は状態表示システムによれば、観察対象の挙動に基づいて、その状態を解析するため、鳴き声を発しない生物であっても、その状態を利用者に対して通知することができるという効果を奏する。
According to the information terminal device or the state display system of the present invention, the state of the observation target is displayed in a superimposed manner on the observation target existing in the actual visual field viewed through the semi-transmissive optical element. There is an effect that the deviation from the state of the observation target is eliminated and the state of the observation target can be easily communicated to the user.
Furthermore, according to the information terminal device or the status display system of the present invention, since the state is analyzed based on the behavior of the observation target, the state is notified to the user even if the organism does not emit a cry. There is an effect that can be done.

以下に、本発明にかかる情報端末装置の一実施形態について、図面を参照して説明する。
図1及び図2は、本発明の一実施形態に係る情報端末装置の構成例を示す外観斜視図であり、図1は、使用状態における外観斜視図、図2は格納状態における外観斜視図を示している。
図1、図2に示すように、本実施形態に係る情報端末装置1は、後述する各種制御機構及び制御基板等を内蔵した筐体(本体)20の外部に、表示装置30及び撮像装置(撮像部)40を備えている。
上記表示装置30は、画像表示部50及びコンバイナー60を備えている。これら画像表示部50及びコンバイナー60は、格納状態で、筐体20を貫通する開口部21の空間部に収納され(図2参照)、それぞれが矩形状とした短辺側の一辺を筐体20に軸支されて揺動による開閉動作が可能とされる。
An embodiment of an information terminal device according to the present invention will be described below with reference to the drawings.
1 and 2 are external perspective views showing a configuration example of an information terminal device according to an embodiment of the present invention. FIG. 1 is an external perspective view in a use state, and FIG. 2 is an external perspective view in a storage state. Show.
As shown in FIGS. 1 and 2, the information terminal device 1 according to the present embodiment includes a display device 30 and an imaging device (outside of a casing (main body) 20 including various control mechanisms and a control board described later. An imaging unit) 40 is provided.
The display device 30 includes an image display unit 50 and a combiner 60. The image display unit 50 and the combiner 60 are housed in a space part of the opening 21 that penetrates the housing 20 (see FIG. 2) in a retracted state, and each side of the short side that is rectangular is housing 20. Opening and closing operation by swinging is enabled.

画像表示部50は、例えば、液晶表示パネル(LCD)や有機EL表示パネル等のいわゆる薄型ディスプレイ(以下「表示面」という。)51を備え、後述する画像表示制御部75(図4参照)により選定された画像を表示面51に表示する。この画像表示部50は、例えば、筐体20に軸支されている支持部材52に固定され、その表示面51は、後述するコンバイナー60と格納状態で対向する面に、換言すれば、筐体20の内側に向けられている。   The image display unit 50 includes, for example, a so-called thin display (hereinafter referred to as “display surface”) 51 such as a liquid crystal display panel (LCD) or an organic EL display panel, and an image display control unit 75 (see FIG. 4) described later. The selected image is displayed on the display surface 51. The image display unit 50 is fixed to, for example, a support member 52 that is pivotally supported by the housing 20, and the display surface 51 is a surface that faces the combiner 60 described later in a stored state, in other words, the housing 20 is directed to the inside.

コンバイナー60は、画像表示部50からの光、すなわち画像表示部50の表示面51に表示された情報の光を反射するとともに、施設利用者の視線方向の実視野からの光を透過する。換言すれば、コンバイナー60は、少なくとも1面に自由曲面(3次元非球面)を備え、実視野となる外界像を透過するとともに、画像表示部50の表示面51に表示された情報(例えば、画像や文字)を光学的に虚像として実視野中の実像に重畳的に表示する半透過型光学素子である。
本実施形態において、コンバイナー60は、例えば、アクリルやポリカーボネート等の透明な材質からなる略長方形板状の部材であり、その片面側に金属膜等の反射層が形成されている。この反射層の表面が、画像表示部50から入射した光を表面で反射させる反射面61となる。
なお、上記コンバイナー60としては、上述の半透過型光学素子のほか、例えば、ハーフミラー、ホログラム素子などを採用することも可能であり、目的に応じてこれらの1つを適宜選択して採用することが可能である。
The combiner 60 reflects the light from the image display unit 50, that is, the light of information displayed on the display surface 51 of the image display unit 50, and transmits the light from the real field of view of the facility user. In other words, the combiner 60 has a free-form surface (three-dimensional aspheric surface) on at least one surface, transmits an external field image that is a real field of view, and displays information (for example, for example, on the display surface 51 of the image display unit 50). This is a transflective optical element that superimposes and displays an image or character as a virtual image on a real image in a real field of view.
In the present embodiment, the combiner 60 is a substantially rectangular plate-like member made of a transparent material such as acrylic or polycarbonate, and a reflective layer such as a metal film is formed on one side thereof. The surface of the reflective layer becomes a reflective surface 61 that reflects the light incident from the image display unit 50 on the surface.
In addition to the above-described transflective optical element, for example, a half mirror, a hologram element, or the like can also be adopted as the combiner 60, and one of these is appropriately selected and used according to the purpose. It is possible.

コンバイナー60は、図2に示すように、格納状態では、画像表示部50の表示面51と凹曲面状の反射面61とが対向するように配置される。
使用状態では、図1に示すように、この反射面61と表示面51とが略対向し、かつ、筐体20とともに略Z字状を形成するように開かれ、図3に示すように、筐体20の後端部側となる側面22が使用者の側頭部に押し当てられるように保持される。この状態において、画像表示部50の表示面51に表示された情報の光は、開口部21を通じて斜め前方へ向けて出射され、反射面61によって筐体20の後端部側へ向けて反射される。これにより、使用者には、コンバイナー60の前方に、すなわち、使用者から見てコンバイナー60よりも遠方に、画像表示部50に表示された情報が虚像として視認される。
As shown in FIG. 2, the combiner 60 is disposed so that the display surface 51 of the image display unit 50 and the concave curved reflection surface 61 face each other in the retracted state.
In the state of use, as shown in FIG. 1, the reflective surface 61 and the display surface 51 are substantially opposed to each other and opened together with the housing 20 so as to form a substantially Z shape, and as shown in FIG. The side surface 22 which is the rear end side of the housing 20 is held so as to be pressed against the user's temporal region. In this state, the information light displayed on the display surface 51 of the image display unit 50 is emitted obliquely forward through the opening 21, and reflected toward the rear end side of the housing 20 by the reflection surface 61. The Thereby, the information displayed on the image display unit 50 is visually recognized as a virtual image in front of the combiner 60, that is, farther than the combiner 60 as viewed from the user.

撮像装置40は、コンバイナー60を介した実視野中に存在する観察対象を検出する検出部として主に機能する。このため、撮像装置40は、図3に示すように、上述した使用状態において、使用者の視線方向に広がるコンバイナー60を介した実視野の風景を撮像可能な位置に設けられている。撮像装置40は、使用状態において、使用者の視線方向の風景を撮像し、取得した画像を後述する処理部73(図4参照)へ出力する。
撮像装置40としては、例えば、感光フィルム等の感光体を用いたアナログ式撮像装置を用いてもよく、またCCD素子等の撮像素子を用いたデジタル式撮像装置を用いてもよい。本実施形態では、撮像装置40として、デジタル式撮像装置が用いられている。
The imaging device 40 mainly functions as a detection unit that detects an observation target existing in the actual visual field via the combiner 60. For this reason, as shown in FIG. 3, the imaging device 40 is provided at a position where an actual visual field landscape can be captured via the combiner 60 that spreads in the user's line-of-sight direction in the above-described use state. In the use state, the imaging device 40 captures a landscape in the user's line of sight and outputs the acquired image to a processing unit 73 (see FIG. 4) described later.
As the imaging device 40, for example, an analog imaging device using a photosensitive member such as a photosensitive film may be used, or a digital imaging device using an imaging device such as a CCD element may be used. In the present embodiment, a digital imaging device is used as the imaging device 40.

次に、上述した筐体20に内蔵される電気的構成について、図4を参照して説明する。
図4は、本実施形態に係る情報端末装置の電気的構成の概略を示したブロック図である。この図において、図1乃至図3と同様の構成要素には、同一の符号を付している。
図4に示すように、筐体20には、第1のデータベース71、第2のデータベース72、各種処理を実行する処理部73、及び画像表示制御部75などが内蔵されている。
Next, an electrical configuration built in the housing 20 will be described with reference to FIG.
FIG. 4 is a block diagram showing an outline of the electrical configuration of the information terminal device according to the present embodiment. In this figure, the same components as those in FIGS. 1 to 3 are denoted by the same reference numerals.
As illustrated in FIG. 4, the housing 20 includes a first database 71, a second database 72, a processing unit 73 that executes various processes, an image display control unit 75, and the like.

第1のデータベース71には、観察対象の画像が登録されている。なお、この観察対象の画像登録の詳細については、後述する。   In the first database 71, images to be observed are registered. Details of the image registration of the observation target will be described later.

第2のデータベース72には、図5に示すように、観察対象の種別(例えば、犬、猫、観葉植物など)毎に、複数の挙動テーブル300が対応付けられて格納されている。挙動テーブル300は、挙動を示す各種パラメータの状態に応じて、観察対象の状態を表す表示内容がそれぞれ対応付けられたテーブルである。
例えば、観察対象が植物である場合は、葉の揺れる振幅に応じて、その状態を表現する表示内容が登録されている。具体的には、図6に示すように、「振幅」を数段階のレベルに分け、レベル毎に、植物の状態を表す表示内容が設定されている。例えば、風がほとんど吹いていない状況を示す「振幅:レベル1」には、「今日は静かだなぁ」などの表示内容が登録される。また、風が強く、木の幹や葉が大きく揺れている状況を示す「振幅:レベル5」には、「風が強くて大変だよー!」、「助けてー。」などの表示内容が登録される。
このように、「振幅」をパラメータとした挙動テーブルが登録されていることにより、風が当たることによる植物の状態や、落葉の状態などを解析することが可能となる。
In the second database 72, as shown in FIG. 5, a plurality of behavior tables 300 are stored in association with each type of observation target (for example, dog, cat, houseplant, etc.). The behavior table 300 is a table in which display contents representing the state of the observation target are associated with each other according to the state of various parameters indicating the behavior.
For example, when the observation target is a plant, display contents expressing the state are registered according to the amplitude of the shaking of the leaves. Specifically, as shown in FIG. 6, the “amplitude” is divided into several levels, and display contents representing the state of the plant are set for each level. For example, display content such as “Today is quiet” is registered in “amplitude: level 1” indicating a situation where the wind is hardly blowing. In addition, “Amplitude: Level 5”, which indicates a situation where the wind is strong and the trunk and leaves of the tree are swaying, has display contents such as “Wind is hard and serious!”, “Help me.” be registered.
In this way, by registering the behavior table with “amplitude” as a parameter, it is possible to analyze the state of the plant, the state of fallen leaves, and the like due to the wind.

また、例えば、観察対象が犬、猫、ハムスター、赤ん坊などの生物である場合は、観察対象の「動く速度」、「生物間の距離」などをパラメータとした挙動テーブルが登録される。
例えば、「動く速度」を数段階に分け、各速度レベルに応じて生物の状態を表す表示内容が設定されている。例えば、非常に早い速度で走っている状況を示す「速度:レベル5」には、「わくわく」、「楽しいなぁ」などの表示内容が登録される。また、とまっている状況を示す「速度:レベル1」には、「疲れた。」、「眠いなぁ」などの表示内容が登録される。
Further, for example, when the observation target is a living organism such as a dog, a cat, a hamster, or a baby, a behavior table is registered using parameters such as “movement speed” and “distance between living organisms” of the observation target.
For example, the “moving speed” is divided into several stages, and display contents representing the state of the organism are set according to each speed level. For example, display contents such as “exciting” and “fun” are registered in “speed: level 5” indicating a situation where the vehicle is running at a very fast speed. In addition, display contents such as “I'm tired” and “I'm sleepy” are registered in “Speed: Level 1” indicating the stopped state.

また、生物が2匹以上いる場合には、これら「生物間の距離」を数段階に分け、各距離レベルに応じて生物の状態を表す表示内容が設定されている。例えば、生物間の距離がほとんどなく、密接している状況を示す「距離:レベル1」には、例えば、「あったかいね。」「次は何しようか。」などの表示内容が登録される。また、距離が遠い状況を示す「距離:レベル5」には、例えば、「どこにいるの?」、「おーい」などの表示内容が登録される。   Further, when there are two or more organisms, the “distance between organisms” is divided into several stages, and display contents representing the state of the organism are set according to each distance level. For example, in “distance: level 1” indicating a close situation where there is almost no distance between living organisms, for example, display contents such as “what happened” or “what to do next” are registered. Further, in “distance: level 5” indicating a situation where the distance is long, display contents such as “Where are you?” And “Hey” are registered, for example.

また、上記「動く速度」及び「生物間の距離」の2つのパラメータの状態を組み合わせることにより、より生物の状態を正確に示す表示内容を設定することが可能となる。例えば、2匹間の距離がある程度離れており、且つ、同方向に同じような速度で動いている場合には、追いかけっこをしている状況と判断できる。このような場合には、追いかけている生物に対して「まてー」、追いかけられている生物に対して「やだよー」などの表示内容を設定することも可能である。   Further, by combining the states of the two parameters, “moving speed” and “distance between organisms”, it is possible to set display contents that more accurately indicate the state of the organism. For example, when the distance between the two animals is some distance away and the two animals are moving at the same speed in the same direction, it can be determined that the player is chasing. In such a case, it is possible to set display contents such as “Mate” for the organism being chased and “Yadayo” for the organism being chased.

処理部73(図4参照)は、判定部731、挙動検出部732、及び状態解析部733を備えて構成されている。
例えば、処理部73は、図示しないCPU(中央演算装置)、ROM(Read
Only Memory)、RAM(Random Access Memory)等を備えて構成されている。上述の各部の機能を実現するための一連の処理手順は、プログラムの形式でROM等に記録されており、このプログラムをCPUがRAM等に読み出して、情報の加工・演算処理を実行することにより、上記判定部731、挙動検出部732、及び状態解析部733などの機能が実現される。
判定部731は、観察対象検出部として機能する撮像装置40により取得された画像に基づいて、コンバイナー60を介した実視野中に、観察対象が存在するか否かを判定する。
The processing unit 73 (see FIG. 4) includes a determination unit 731, a behavior detection unit 732, and a state analysis unit 733.
For example, the processing unit 73 includes a CPU (Central Processing Unit), ROM (Read
Only Memory), RAM (Random Access Memory), etc. are provided. A series of processing procedures for realizing the function of each unit described above is recorded in a ROM or the like in the form of a program, and the CPU reads the program into the RAM or the like and executes information processing / calculation processing. Functions such as the determination unit 731, the behavior detection unit 732, and the state analysis unit 733 are realized.
The determination unit 731 determines whether or not the observation target exists in the actual visual field via the combiner 60 based on the image acquired by the imaging device 40 that functions as the observation target detection unit.

挙動検出部732は、撮像装置40により取得された観察対象の画像に基づいて、観察対象の挙動を検出する。具体的には、挙動検出部732は、図5に示した挙動テーブルのパラメータに対応する挙動を検出する。
例えば、判定部731により検出された観察対象が植物であった場合には、撮像装置40から逐次出力される観察対象の画像に基づいて、当該植物の葉が揺れる振幅や周期などを算出する。
また、判定部731により検出された観察対象が犬、猫、ハムスター、赤ん坊などの生物であった場合には、撮像装置40から逐次出力される観察対象の画像に基づいて、観察対象の動く速度を算出するとともに、移動方向を検出する。更に、判定部731により複数の観察対象が検出された場合には、その観察対象の互いの距離を算出する。そして、この検出結果を状態解析部733に出力する。
The behavior detection unit 732 detects the behavior of the observation target based on the observation target image acquired by the imaging device 40. Specifically, the behavior detection unit 732 detects the behavior corresponding to the parameters of the behavior table illustrated in FIG.
For example, when the observation target detected by the determination unit 731 is a plant, the amplitude, period, and the like of the leaves of the plant are calculated based on the observation target images sequentially output from the imaging device 40.
In addition, when the observation target detected by the determination unit 731 is a living organism such as a dog, cat, hamster, or baby, the speed at which the observation target moves based on the images of the observation target that are sequentially output from the imaging device 40. And the moving direction is detected. Furthermore, when a plurality of observation targets are detected by the determination unit 731, the distance between the observation targets is calculated. Then, the detection result is output to the state analysis unit 733.

状態解析部733は、挙動検出部732により検出された挙動に基づいて、観察対象の状態を解析し、その解析結果を画像表示制御部75に出力する。本実施形態では、状態解析部733は、挙動検出部732から入力された各種パラメータに基づいて、第2のデータベース72から該当する表示内容を抽出し(抽出手段)、抽出した表示内容を画像表示制御部75へ出力する。
画像表示制御部75は、処理部73の状態解析部733から出力される表示内容を画像表示部50に表示させる。これにより、画像表示部50に表示された表示内容は、コンバイナー60により、虚像として、実視野中の実像、つまり、観察対象に重畳されることとなる。
The state analysis unit 733 analyzes the state of the observation target based on the behavior detected by the behavior detection unit 732 and outputs the analysis result to the image display control unit 75. In the present embodiment, the state analysis unit 733 extracts the corresponding display content from the second database 72 based on the various parameters input from the behavior detection unit 732 (extraction unit), and displays the extracted display content as an image display. Output to the control unit 75.
The image display control unit 75 causes the image display unit 50 to display the display content output from the state analysis unit 733 of the processing unit 73. As a result, the display content displayed on the image display unit 50 is superimposed on the real image in the real field of view, that is, the observation target, as a virtual image by the combiner 60.

このように構成された本実施形態に係る情報端末装置1の作用について、以下に説明する。   The operation of the information terminal device 1 according to the present embodiment configured as described above will be described below.

〔初期登録について〕
以下、観察対象を登録するための初期登録処理について説明する。
初期登録においては、図3に示すように、例えば、使用者は、使用状態の情報端末装置10の筐体20の側部22を側頭部に押し当てるように保持する。次に、コンバイナー60を介した実視野中に、観察対象を確認できる状態において、筐体20の側面に設けられた図示しないシャッタスイッチを押す。これにより、シャッタスイッチが押下された旨の電気信号が、筐体20に内蔵されている処理部73(図4参照)に入力される。
処理部73は、シャッタスイッチが押下された旨の電気信号を取得すると、現時点において、撮像装置40により撮像されている画像を取り込む。これにより、使用者の視線方向の風景、つまり、観察対象が存在する風景が撮像装置40により撮像されて、画像として処理部73に取り込まれる。
[Initial registration]
Hereinafter, an initial registration process for registering an observation target will be described.
In the initial registration, as shown in FIG. 3, for example, the user holds the side portion 22 of the casing 20 of the information terminal device 10 in a used state so as to press it against the temporal region. Next, a shutter switch (not shown) provided on the side surface of the housing 20 is pressed in a state where the observation target can be confirmed in the real field of view through the combiner 60. Thus, an electrical signal indicating that the shutter switch has been pressed is input to the processing unit 73 (see FIG. 4) built in the housing 20.
When the processing unit 73 acquires an electrical signal indicating that the shutter switch has been pressed, the processing unit 73 captures an image currently captured by the imaging device 40. As a result, a landscape in the user's line of sight, that is, a landscape in which an observation target exists is captured by the imaging device 40 and is captured as an image into the processing unit 73.

次に、処理部73は、取り込まれた画像を画像表示制御部75に出力することによって、画像表示部50に表示させる。これにより、使用者に対して、取り込まれた画像を確認させることが可能となる。
使用者は、例えば、画像表示部50の表示面51を直接的に確認することにより、観察対象が画像として確実に取り込まれたかを確認すると、図示しない登録ボタンを押下する。これにより、登録ボタンが押下された旨の電気信号が処理部73に入力される。処理部73は、登録ボタンが押下された旨の電気信号を取得すると、先ほどの画像を第1のデータベース71に書き込む。これにより、観察対象が登録されることとなる。そして、このような操作、処理を繰り返し行うことにより、様々な生物を観察対象として登録することが可能となる。
Next, the processing unit 73 causes the image display unit 50 to display the captured image by outputting it to the image display control unit 75. This allows the user to check the captured image.
For example, when the user confirms whether the observation target is reliably captured as an image by directly confirming the display surface 51 of the image display unit 50, the user presses a registration button (not shown). As a result, an electrical signal indicating that the registration button has been pressed is input to the processing unit 73. When acquiring the electrical signal indicating that the registration button has been pressed, the processing unit 73 writes the previous image in the first database 71. As a result, the observation target is registered. Then, by repeatedly performing such operations and processes, it is possible to register various organisms as observation targets.

〔登録後について〕
次に、登録後における情報端末装置1の通常時における作用について、図7を参照して説明する。
まず、図3に示すように、使用状態にされた情報端末装置1が使用者の側頭部に保持された状態において、観察対象検出部として機能する撮像装置40は、使用者の視野方向の風景を逐次撮像し、取得した画像を処理部73に出力する。
処理部73の判定部731は、撮像装置40から画像を取得すると(図7のステップSA1)、コンバイナー60を介した実視野中に観察対象が存在するか否かを判定する(ステップSA2)。
具体的には、判定部731は、撮像装置40により取得された使用者の視線方向の風景画像と、第1のデータベース71に登録されている各観察対象の画像とのパターンマッチングを行う。そして、撮像装置40により取得された風景画像に、観察対象の画像とマッチングする輪郭が認識できた場合には、コンバイナー60を介した実視野中にその観察対象が存在すると判定する。
[After registration]
Next, the operation at the normal time of the information terminal device 1 after registration will be described with reference to FIG.
First, as shown in FIG. 3, in a state where the information terminal device 1 that has been put into use is held in the user's temporal region, the imaging device 40 that functions as an observation target detection unit The scenery is sequentially imaged and the acquired image is output to the processing unit 73.
When the determination unit 731 of the processing unit 73 acquires an image from the imaging device 40 (step SA1 in FIG. 7), the determination unit 731 determines whether or not an observation target exists in the actual visual field via the combiner 60 (step SA2).
Specifically, the determination unit 731 performs pattern matching between a landscape image in the user's line-of-sight direction acquired by the imaging device 40 and each observation target image registered in the first database 71. Then, when the landscape image acquired by the imaging device 40 can recognize a contour that matches the image of the observation target, it is determined that the observation target exists in the actual visual field via the combiner 60.

実視野中に観察対象が存在すると判定した場合(ステップSA2において「YES」)、判定部731は、挙動検出部732に検出した観察対象の情報を出力する。
挙動検出部733は、判定部732から入力された観察対象の情報に基づいて、その観察対象の挙動を撮像装置40から逐次入力される画像に基づいて検出する(ステップSA3)。例えば、観察対象として、2匹のハムスターが検出された場合には、挙動検出部733は、撮像装置40から逐次出力される画像に基づいて、2匹のハムスターの移動方向、移動速度、及び両者間の距離を算出する。そして、これらの検出結果を状態解析部733に出力する。
When it is determined that the observation target is present in the real field of view (“YES” in step SA2), the determination unit 731 outputs the information of the detected observation target to the behavior detection unit 732.
Based on the information on the observation target input from the determination unit 732, the behavior detection unit 733 detects the behavior of the observation target based on images sequentially input from the imaging device 40 (step SA3). For example, when two hamsters are detected as observation targets, the behavior detection unit 733 determines the moving direction, moving speed, and both of the two hamsters based on images sequentially output from the imaging device 40. Calculate the distance between them. These detection results are output to the state analysis unit 733.

状態解析部733は、挙動検出部732から入力された挙動に基づいて、観察対象の状態を解析し(ステップSA4)、この状態に応じた表示内容を画像表示制御部75に出力する(ステップSA5)。具体的には、ハムスターに対応して登録されている挙動テーブル300を第2のデータベース72から取得し、取得したこの挙動テーブル300を参照して、挙動検出部733から入力された各種パラメータに該当する表示内容を抽出する。本実施形態では、2匹のハムスターの移動方向、移動速度、及び両者間の距離をパラメータとし、これらのパラメータに一致する表示内容を第2のデータベース72の挙動テーブル300(図5参照)から抽出する。そして、状態解析部733は、抽出した表示内容を画像表示制御部75へ出力する。   The state analysis unit 733 analyzes the state of the observation target based on the behavior input from the behavior detection unit 732 (step SA4), and outputs display contents corresponding to this state to the image display control unit 75 (step SA5). ). Specifically, the behavior table 300 registered corresponding to the hamster is acquired from the second database 72, and the acquired behavior table 300 is referred to, and it corresponds to various parameters input from the behavior detection unit 733. The display contents to be extracted are extracted. In the present embodiment, the moving direction, moving speed, and distance between the two hamsters are used as parameters, and the display content that matches these parameters is extracted from the behavior table 300 (see FIG. 5) of the second database 72. To do. Then, the state analysis unit 733 outputs the extracted display content to the image display control unit 75.

画像表示制御部75は、処理部73から入力された表示内容を画像表示部50に表示させる。これにより、図8に示すように、ハムスターの状態を示す内容(ここでは、「まてー」と「やだよー」)が、コンバイナー60により、実視野中に存在するハムスターに重畳的に表示されることとなる(ステップSA6)。   The image display control unit 75 displays the display content input from the processing unit 73 on the image display unit 50. Thus, as shown in FIG. 8, the contents indicating the state of the hamster (here, “Mate” and “Yadayo”) are superimposed on the hamster existing in the real field of view by the combiner 60. (Step SA6).

以上説明してきたように、本実施形態に係る情報端末装置によれば、以下の効果を奏する。
第1に、動物や植物などの観察対象の状態は、コンバイナー60により、実視野中に存在する観察対象に重畳的に表示されるので、植物、動物などの観察対象と、その観察対象の状態とを、一体性をもたせた形で表示させることができる。これにより、観察対象とその観察対象の状態との乖離を解消し、利用者に対して、観察対象の状態をわかりやすく伝えることができるという効果を奏する。
第2に、観察対象の挙動に基づいて観察対象の状態が解析されるので、音を発しない生物についてもその状態を解析して、表示させることが可能となる。これにより、音を発しない生物の状態や感情についても利用者に提供することができる。
As described above, the information terminal device according to the present embodiment has the following effects.
First, since the state of the observation target such as an animal or a plant is superimposed on the observation target existing in the real field of view by the combiner 60, the observation target such as a plant or animal and the state of the observation target are displayed. Can be displayed in an integrated manner. Thereby, there is an effect that the difference between the observation target and the state of the observation target is eliminated, and the state of the observation target can be easily communicated to the user.
Second, since the state of the observation target is analyzed based on the behavior of the observation target, it is possible to analyze and display the state of a living organism that does not emit sound. Thereby, it is possible to provide the user with the state and emotions of living things that do not emit sound.

以上、本実施形態に係る情報端末装置について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
第1に、上述した実施形態においては、撮像装置40により取得された画像と予め登録されている観察対象の画像とをパターンマッチングすることにより、実視野中に観察対象が存在するか否かを判定していたが、このような態様に限らず、例えば、以下のような第1の他の態様、第2の他の態様などによっても判定を行うことが可能である。
The information terminal device according to the present embodiment has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and design changes and the like within a scope not departing from the gist of the present invention are possible. included.
First, in the above-described embodiment, it is determined whether or not the observation target exists in the real field of view by performing pattern matching between the image acquired by the imaging device 40 and the image of the observation target registered in advance. Although it was determined, the determination is not limited to such an aspect, and for example, the determination can be performed by the following first other aspect, second other aspect, and the like.

第1の他の態様としては、例えば、撮像装置40に代わって、方位情報測定部を備えるとともに、第1のデータベース71には、観察対象の画像に代わって、観察対象の配置位置、例えば、緯度及び経度からなる位置情報を登録する。
そして、処理部73が備える判定部731が、観察対象検出部として機能する上記方位情報測定部により特定された位置及び方向に基づいて決定される所定の範囲内、例えば、方位情報測定部により特定された位置を中心として、方位情報測定部により特定された方向に描かれる扇状の範囲内に、予め登録されている観察対象が存在するか否かを判定することにより、前記観察対象が前記実視野中に存在するか否かを判定する。
As a 1st other mode, for example, it is provided with a direction information measurement part instead of the imaging device 40, and in the 1st database 71, instead of an image of an observation object, an arrangement position of an observation object, for example, Register location information consisting of latitude and longitude.
Then, the determination unit 731 included in the processing unit 73 is specified within a predetermined range determined based on the position and direction specified by the direction information measurement unit functioning as the observation target detection unit, for example, specified by the direction information measurement unit. By determining whether or not a pre-registered observation target exists within a fan-shaped range drawn in the direction specified by the azimuth information measurement unit with the centered position as the center, the observation target is Determine if it exists in the field of view.

第2の他の態様としては、例えば、観察対象に指向性の高い発信機を設置するとともに、情報端末装置1の使用時における筐体20の前方(例えば、撮像装置40が設置されている付近)に、受信機を設ける。そして、処理部73の判定部731は、発信機から発せられた信号が受信機により受信されたか否かを判定することにより、観察対象が実視野中に存在するか否かを判定する。なお、この態様では、受信機が観察対象検出部として機能することとなる。
上述したような、第1の他の態様、第2の他の態様によれば、パターンマッチングなどの煩雑な処理を行うことなく、観察対象がコンバイナー60を介した実視野内に存在するか否かの判定を容易に行うことが可能となる。
また、上記第2の他の態様のように、観察対象に指向性の高い発信機を設置した場合には、この発信機からの信号に基づいて、挙動検出部732が観察対象の挙動、例えば、観察対象の動く速度、観察対象間の距離などを検出するようにしても良い。なお、発信機からの信号に基づいて、動く速度や、観察対象間の距離を算出する手法については、周知の追跡機能などの技術を採用することにより実現可能である。
As a second other aspect, for example, a transmitter with high directivity is installed on the observation target, and the front of the housing 20 when the information terminal device 1 is used (for example, the vicinity where the imaging device 40 is installed) ) Is provided with a receiver. And the determination part 731 of the process part 73 determines whether the observation object exists in a real visual field by determining whether the signal emitted from the transmitter was received by the receiver. In this aspect, the receiver functions as an observation target detection unit.
According to the first other aspect and the second other aspect as described above, whether or not the observation target exists in the real field of view through the combiner 60 without performing complicated processing such as pattern matching. Such a determination can be easily performed.
In addition, when a transmitter with high directivity is installed on the observation target as in the second other aspect, the behavior detection unit 732 determines the behavior of the observation target based on the signal from the transmitter, for example, Further, the moving speed of the observation object, the distance between the observation objects, and the like may be detected. In addition, about the method of calculating the moving speed and the distance between observation objects based on the signal from a transmitter, it is realizable by employ | adopting techniques, such as a well-known tracking function.

第2に、上述した実施形態では、観察対象の動く速度、観察対象間の距離などの挙動を検出していたが、例えば、顔の表情が豊かな生物、例えば、赤ん坊などの場合には、これらの顔の表情の変化(挙動)に応じて、その感情を表示するような構成としても良い。
この場合、平常時における顔の画像が予め情報端末装置1に登録されているとともに、この画像に観察対象の表情の動きを検出するために用いられる特徴点が予め設定されている。また、第2のデータベース72には、これらの特徴点の変位と表示内容とが対応付けられた挙動テーブルが格納されている。
そして、上述した情報端末装置1の使用時において、挙動検出部732は、撮像装置40から逐次入力される観察対象の顔の画像において、これら特徴点を抽出し、抽出した特徴点の位置と、予め登録されている平常時における特徴点の位置とを比較することにより、平常時に対する特徴点の変位を算出することにより、観察対象の挙動を検出する。例えば、特徴点の変位を算出することにより、目を瞑っている、目が開いている、目尻が下がっている、瞬きが激しいなどの様子を検出することが可能となる。
そして、状態解析部733が挙動検出部732により検出された挙動、つまり、特徴点の変位に対応付けられている表示内容を第2のデータベース72から抽出し、これを画像表示制御部75へ出力する。
これにより、観察対象の表情に応じた表示内容が虚像として利用者に提供されることとなる。
Secondly, in the above-described embodiment, the behavior such as the moving speed of the observation target and the distance between the observation targets is detected. For example, in the case of an organism with a rich facial expression, such as a baby, It is good also as a structure which displays the emotion according to the change (behavior) of these facial expressions.
In this case, a face image in normal times is registered in advance in the information terminal device 1, and feature points used for detecting the movement of the facial expression to be observed are set in advance in this image. The second database 72 stores a behavior table in which the displacements of these feature points are associated with display contents.
Then, when using the information terminal device 1 described above, the behavior detection unit 732 extracts these feature points from the image of the face to be observed that is sequentially input from the imaging device 40, the position of the extracted feature points, The behavior of the observation target is detected by calculating the displacement of the feature point with respect to the normal time by comparing the position of the feature point with the normal time registered in advance. For example, by calculating the displacement of the feature points, it is possible to detect a situation in which the eyes are meditating, the eyes are open, the corners of the eyes are lowered, and blinking is intense.
The state analysis unit 733 extracts the behavior detected by the behavior detection unit 732, that is, the display contents associated with the displacement of the feature point from the second database 72, and outputs this to the image display control unit 75. To do.
As a result, the display content corresponding to the facial expression to be observed is provided to the user as a virtual image.

第3に、上述した実施形態においては、観察対象を観葉植物や動物(人間を含む)などとしたが、これに限られず、観察対象は、機械などのように、人工的に作成されたものでも良い。例えば、機械などであれば、機械の挙動などを取得することにより、その機械が正常に動作しているか否かなどを表示内容として使用者に提供することが可能である。   Third, in the above-described embodiment, the observation object is a foliage plant or an animal (including a human), but the observation object is not limited to this, and the observation object is an artificially created object such as a machine. But it ’s okay. For example, in the case of a machine or the like, it is possible to provide the user with display contents as to whether or not the machine is operating normally by acquiring the behavior of the machine.

第4に、上述した実施形態においては、処理部73が備える判定部731、挙動検出部732、状態解析部733などの各部の機能は、ソフトウェアによる処理を実行することにより実現させていたが、この構成例に限られず、アナログ回路などにより、これらの機能を実現するようにしても良い。   Fourth, in the above-described embodiment, the functions of each unit such as the determination unit 731, the behavior detection unit 732, and the state analysis unit 733 included in the processing unit 73 are realized by executing processing by software. The present invention is not limited to this configuration example, and these functions may be realized by an analog circuit or the like.

次に、本発明の状態表示システムの一実施形態について、図9を参照して説明する。
本実施形態に係る情報表示システムでは、図9に示すように、処理部73が備える判定部731、挙動検出部732、及び状態解析部733、並びに、第1のデータベース71、及び第2のデータベース72を外部に設置されたサーバ2に設け、このサーバ2と情報端末装置1´とを備える状態表示システムを構築する。そして、情報端末装置1とサーバ2とが互いに通信を行うための通信部80、81を各々に設け、情報を送受することにより、上述の実施形態に係る情報端末装置1の作用並びに効果を実現させる構成としても良い。
Next, an embodiment of the status display system of the present invention will be described with reference to FIG.
In the information display system according to the present embodiment, as illustrated in FIG. 9, the determination unit 731, the behavior detection unit 732, the state analysis unit 733, the first database 71, and the second database included in the processing unit 73. 72 is provided in the server 2 installed outside, and a state display system including the server 2 and the information terminal device 1 ′ is constructed. And the communication part 80 and 81 for the information terminal device 1 and the server 2 to mutually communicate are provided in each, and the effect | action and effect of the information terminal device 1 which concern on the above-mentioned embodiment are implement | achieved by transmitting / receiving information. It is good also as a structure made to do.

この状態表示システムによれば、情報端末装置1において、観葉植物検出部として機能する撮像装置40により撮像された画像は、処理部73´により通信部80を介してサーバ2へ送信される。この画像は、サーバ2の通信部81により受信され、処理部73に出力される。処理部73の判定部731、挙動検出部732、状態解析部733は、情報端末装置1から送信されてくる画像などに基づいて、上述した処理(例えば、図8のステップSA2からステップSA5の処理)を実行する。この結果、状態解析部733により表示内容が抽出されると、この表示内容は、通信部81を介して情報端末装置1に送信される。
この表示内容は、情報端末装置1の通信部80を介して処理部73´に入力され、処理部73´から画像表示制御部75に出力される。これにより、表示内容は、画像表示制御部75により画像表示部50に表示されることとなる。
According to this state display system, in the information terminal device 1, an image captured by the imaging device 40 that functions as a foliage plant detection unit is transmitted to the server 2 via the communication unit 80 by the processing unit 73 ′. This image is received by the communication unit 81 of the server 2 and output to the processing unit 73. The determination unit 731, the behavior detection unit 732, and the state analysis unit 733 of the processing unit 73 perform the above-described processing (for example, processing from step SA <b> 2 to step SA <b> 5 in FIG. 8) based on the image transmitted from the information terminal device 1. ). As a result, when the display content is extracted by the state analysis unit 733, the display content is transmitted to the information terminal device 1 via the communication unit 81.
This display content is input to the processing unit 73 ′ via the communication unit 80 of the information terminal device 1, and is output from the processing unit 73 ′ to the image display control unit 75. As a result, the display content is displayed on the image display unit 50 by the image display control unit 75.

以上、説明してきたように、本実施形態に係る状態表示システムによれば、上述した本発明の一実施形態に係る情報端末装置1が備えていた構成要素の一部をサーバ2に設けることにより、情報端末装置1の処理負担の軽減、筐体20の省スペース化、軽量化などを図ることができる。   As described above, according to the status display system according to the present embodiment, by providing some of the components included in the information terminal device 1 according to the above-described embodiment of the present invention in the server 2. Thus, the processing load on the information terminal device 1 can be reduced, the space of the housing 20 can be reduced, and the weight can be reduced.

以上、本実施形態に係る状態表示システムについて図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
第1に、上述した実施形態において、サーバ2が備える各構成要素や処理部73が実現させる各種機能は、一例であり、これらの一部が情報端末装置1に備えられていても良い。例えば、判定部731、挙動検出部732、及び状態解析部733のうちの少なくとも1つが、情報端末装置1に備えられていても良い。
The state display system according to this embodiment has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and design changes and the like within a scope that does not depart from the gist of the present invention are also possible. included.
1stly, in the embodiment mentioned above, each component with which the server 2 is provided, and the various functions which the process part 73 implement | achieve is an example, These may be provided in the information terminal device 1. FIG. For example, at least one of the determination unit 731, the behavior detection unit 732, and the state analysis unit 733 may be provided in the information terminal device 1.

第2に、第1のデータベース71又は第2のデータベース72は、処理部73、73´が実現させる機能に応じて、サーバ2又は情報端末装置1に備えられていても良い。
第3に、上述した通信部80、81の間で行われるデータ通信の規格は、特に限定されるものではなく、例えば、ブルーツースなどの無線インターフェースにより直接的に行われても良い。また、各通信部及び通信装置間の通信経路についても適宜選択することができる。
Secondly, the first database 71 or the second database 72 may be provided in the server 2 or the information terminal device 1 according to the functions realized by the processing units 73 and 73 ′.
Third, the standard of data communication performed between the communication units 80 and 81 described above is not particularly limited, and may be performed directly by a wireless interface such as Bluetooth. In addition, a communication path between each communication unit and the communication device can be selected as appropriate.

本発明の第1の実施形態に係る情報端末装置の構成例を示す外観斜視図である。It is an external appearance perspective view which shows the structural example of the information terminal device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る情報端末装置の構成例を示す外観斜視図である。It is an external appearance perspective view which shows the structural example of the information terminal device which concerns on the 1st Embodiment of this invention. 図1に示した画像表示部、コンバイナーの作用を説明するための図である。It is a figure for demonstrating the effect | action of the image display part shown in FIG. 1, and a combiner. 本発明の一実施形態に係る情報端末装置の電気的構成例を示すブロック図である。It is a block diagram which shows the electrical structural example of the information terminal device which concerns on one Embodiment of this invention. 図4に示した第2のデータベースに格納されている情報について説明するための図である。It is a figure for demonstrating the information stored in the 2nd database shown in FIG. 図4に示した第2のデータベースに格納されている挙動テーブルの一例を示す図である。It is a figure which shows an example of the behavior table stored in the 2nd database shown in FIG. 本発明の一実施形態に係る情報端末装置の作用を示すフローチャートである。It is a flowchart which shows the effect | action of the information terminal device which concerns on one Embodiment of this invention. 実視野中に観察対象が存在した場合に、使用者により、コンバイナーを介して視認される画像の一例を示した図である。It is the figure which showed an example of the image visually recognized via a combiner by the user, when an observation target exists in a real visual field. 本発明の一実施形態に係る状態表示システムの概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a status display system according to an embodiment of the present invention.

符号の説明Explanation of symbols

1 情報端末装置
2 サーバ
20 筐体
30 表示装置
40 撮像装置
50 画像表示部
60 コンバイナー
71 第1のデータベース
72 第2のデータベース
73、73´ 処理部
75 画像表示制御部
80、81 通信部
731 判定部
732 挙動検出部
733 状態解析部
DESCRIPTION OF SYMBOLS 1 Information terminal device 2 Server 20 Case 30 Display device 40 Imaging device 50 Image display part 60 Combiner 71 1st database 72 2nd database 73, 73 'Processing part 75 Image display control part 80, 81 Communication part 731 Determination part 732 Behavior detection unit 733 State analysis unit

Claims (12)

画像表示部と、
使用者の視線方向の実視野からの光を透過するとともに前記画像表示部に表示された情報を光学的に虚像として前記実視野中に重畳的に表示する半透過光学素子と、
前記半透過光学素子を介した実視野中に存在する観察対象を検出する観察対象検出部と、
前記観察対象検出部で検出される前記観察対象の挙動を検出する挙動検出部と、
前記挙動検出部によって検出された観察対象の挙動に基づいて、前記観察対象の状態を解析する状態解析部と、
前記状態解析部の解析結果を前記画像表示部に表示させる画像表示制御部と
を備える情報端末装置。
An image display unit;
A transflective optical element that transmits light from the real field of view of the user's line of sight and displays the information displayed on the image display unit optically as a virtual image in a superimposed manner in the real field;
An observation object detection unit for detecting an observation object existing in a real field of view through the transflective optical element;
A behavior detection unit for detecting the behavior of the observation target detected by the observation target detection unit;
Based on the behavior of the observation target detected by the behavior detection unit, a state analysis unit that analyzes the state of the observation target;
An information terminal device comprising: an image display control unit that causes the image display unit to display an analysis result of the state analysis unit.
前記観察対象検出部の検出結果に基づいて、前記観察対象が前記実視野中に存在するか否かを判定する判定部を備え、
前記挙動検出部が、前記判定部によって前記観察対象が前記実視野中に存在すると判定された場合に、前記観察対象の挙動を検出する請求項1に記載の情報端末装置。
Based on the detection result of the observation target detection unit, comprising a determination unit that determines whether the observation target exists in the real field of view,
The information terminal device according to claim 1, wherein the behavior detection unit detects the behavior of the observation target when the determination unit determines that the observation target exists in the real field of view.
前記観察対象検出部が、前記実視野の方向を撮像する撮像部を備え、
前記判定部が、前記撮像部から出力される画像情報と予め登録されている観察対象の画像情報とを照合することにより、前記観察対象が前記実視野中に存在するか否かを判定する請求項1又は請求項2に記載の情報端末装置。
The observation target detection unit includes an imaging unit that images the direction of the real field of view,
The determination unit determines whether or not the observation target exists in the real field of view by comparing image information output from the imaging unit with image information of the observation target registered in advance. The information terminal device according to claim 1 or 2.
前記観察対象検出部が、前記観察対象に設けられた発信機から発せられる信号を受信する受信機を備え、
前記判定部は、前記発信機から発せられた信号が前記受信機により受信されたか否かにより、前記観察対象が前記実視野中に存在するか否かを判定する請求項1又は請求項2に記載の情報端末装置。
The observation target detection unit includes a receiver that receives a signal emitted from a transmitter provided in the observation target;
The said determination part determines whether the said observation object exists in the said real visual field by whether the signal emitted from the said transmitter was received by the said receiver. The information terminal device described.
前記観察対象検出部が、位置及び方向を特定する方位情報測定部を備え、
前記判定部は、前記方位情報測定部により特定された位置及び方向に基づいて決定される所定の範囲内に、予め登録されている観察対象が存在するか否かを判定することにより、前記観察対象が前記実視野中に存在するか否かを判定する請求項1又は請求項2に記載の情報端末装置。
The observation target detection unit includes an azimuth information measurement unit that specifies a position and a direction,
The determination unit determines whether or not a pre-registered observation target exists within a predetermined range determined based on the position and direction specified by the azimuth information measurement unit. The information terminal device according to claim 1 or 2, wherein it is determined whether or not a target exists in the real visual field.
前記挙動検出部が、
前記観察対象を撮像する撮像部と、
前記撮像部により取得された画像に基づいて、予め登録されている前記観察対象の特徴点を抽出する特徴点抽出部とを備え、
前記特徴点抽出部により抽出された特徴点の変位に基づいて、前記観察対象の挙動を検出する請求項1又は請求項2又は請求項4又は請求項5に記載の情報端末装置。
The behavior detection unit is
An imaging unit for imaging the observation target;
A feature point extraction unit that extracts a feature point of the observation target registered in advance based on the image acquired by the imaging unit;
The information terminal device according to claim 1, 2, 4, or 5, wherein the behavior of the observation target is detected based on a displacement of the feature point extracted by the feature point extraction unit.
前記挙動検出部が、前記観察対象検出部が備える前記撮像部により取得された画像に基づいて、予め登録されている前記観察対象の特徴点を抽出する特徴点抽出部を備え、
前記特徴点抽出部により抽出された特徴点の変位に基づいて、前記観察対象の挙動を検出する請求項3に記載の情報端末装置。
The behavior detection unit includes a feature point extraction unit that extracts a feature point of the observation target registered in advance based on an image acquired by the imaging unit included in the observation target detection unit;
The information terminal device according to claim 3, wherein a behavior of the observation target is detected based on a displacement of the feature point extracted by the feature point extraction unit.
前記挙動検出部が、前記観察対象に設けられている発信機からの信号を検出することにより、前記観察対象の挙動を検出する請求項1から請求項3のいずれかの項又は請求項5に記載の情報端末装置。   The said behavior detection part detects the behavior of the said observation object by detecting the signal from the transmitter provided in the said observation object, The claim in any one of Claims 1-3 or Claim 5 The information terminal device described. 前記挙動検出部は、前記観察対象検出部が備える受信機により受信された信号に基づいて、前記観察対象の挙動を検出する請求項4に記載の情報端末装置。   The information terminal device according to claim 4, wherein the behavior detection unit detects the behavior of the observation target based on a signal received by a receiver included in the observation target detection unit. 前記状態解析部が、
前記観察対象の挙動と状態とを対応付けて記憶するデータベースと、
前記挙動検出部により取得された挙動に対応する前記観察対象の状態を前記データベースから抽出する状態抽出部と
を具備する請求項1から請求項9のいずれかの項に記載の情報端末装置。
The state analysis unit
A database for storing the behavior and state of the observation target in association with each other;
The information terminal device according to any one of claims 1 to 9, further comprising: a state extracting unit that extracts the state of the observation target corresponding to the behavior acquired by the behavior detecting unit from the database.
前記判定部により、前記観察対象が前記実視野中に存在すると判定された場合に、前記挙動検出部が起動する請求項2から請求項10のいずれかの項に記載の情報端末装置。   The information terminal device according to any one of claims 2 to 10, wherein the behavior detection unit is activated when the determination unit determines that the observation target is present in the real visual field. 少なくとも画像表示部、使用者の視線方向の実視野からの光を透過するとともに前記画像表示部に表示された情報を光学的に虚像として前記実視野中に重畳的に表示する半透過光学素子を備える情報端末装置と、
前記半透過光学素子を介した実視野中に存在する前記観察対象を検出する観察対象検出部と、
前記観察対象検出部の検出結果に基づいて、前記観察対象が前記実視野中に存在するか否かを判定する判定部と、
前記判定部によって前記観察対象が前記実視野中に存在すると判定された場合に、前記観察対象の挙動を検出する挙動検出部と、
前記挙動検出部によって検出された観察対象の挙動に基づいて、前記観察対象の状態を解析する状態解析部とを備え、
前記状態解析部の解析結果を前記情報端末装置の前記画像表示部に表示させる状態表示システム。
At least an image display unit, a transflective optical element that transmits light from a real field of view in the user's line of sight and displays the information displayed on the image display unit as an optical virtual image in a superimposed manner in the real field of view An information terminal device comprising:
An observation object detection unit for detecting the observation object existing in a real field of view through the transflective optical element;
Based on the detection result of the observation target detection unit, a determination unit that determines whether or not the observation target exists in the real field of view,
A behavior detection unit that detects the behavior of the observation target when the determination unit determines that the observation target is present in the real field of view;
A state analysis unit that analyzes the state of the observation target based on the behavior of the observation target detected by the behavior detection unit;
A state display system for displaying an analysis result of the state analysis unit on the image display unit of the information terminal device.
JP2004342858A 2004-11-26 2004-11-26 Information terminal device and status display system Expired - Fee Related JP4573634B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004342858A JP4573634B2 (en) 2004-11-26 2004-11-26 Information terminal device and status display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004342858A JP4573634B2 (en) 2004-11-26 2004-11-26 Information terminal device and status display system

Publications (2)

Publication Number Publication Date
JP2006155084A true JP2006155084A (en) 2006-06-15
JP4573634B2 JP4573634B2 (en) 2010-11-04

Family

ID=36633333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004342858A Expired - Fee Related JP4573634B2 (en) 2004-11-26 2004-11-26 Information terminal device and status display system

Country Status (1)

Country Link
JP (1) JP4573634B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015025878A1 (en) * 2013-08-21 2015-02-26 オリンパスイメージング株式会社 Imaging device, imaging method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103479A (en) * 1996-06-14 1998-01-06 Masaomi Yamamoto Method and device for translating will of animals or the like
JP2000259831A (en) * 1999-03-05 2000-09-22 Atr Media Integration & Communications Res Lab Expression detector
JP2000284214A (en) * 1999-03-30 2000-10-13 Suzuki Motor Corp Device for controlling display means to be mounted on helmet
JP2003092701A (en) * 2001-09-18 2003-03-28 Ricoh Co Ltd Imaging apparatus
WO2003092291A1 (en) * 2002-04-25 2003-11-06 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
JP2004207848A (en) * 2002-12-24 2004-07-22 Megachips System Solutions Inc Information distribution system
JP2004258734A (en) * 2003-02-24 2004-09-16 Nippon Telegr & Teleph Corp <Ntt> State determination method and system using radio tag

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103479A (en) * 1996-06-14 1998-01-06 Masaomi Yamamoto Method and device for translating will of animals or the like
JP2000259831A (en) * 1999-03-05 2000-09-22 Atr Media Integration & Communications Res Lab Expression detector
JP2000284214A (en) * 1999-03-30 2000-10-13 Suzuki Motor Corp Device for controlling display means to be mounted on helmet
JP2003092701A (en) * 2001-09-18 2003-03-28 Ricoh Co Ltd Imaging apparatus
WO2003092291A1 (en) * 2002-04-25 2003-11-06 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
JP2004207848A (en) * 2002-12-24 2004-07-22 Megachips System Solutions Inc Information distribution system
JP2004258734A (en) * 2003-02-24 2004-09-16 Nippon Telegr & Teleph Corp <Ntt> State determination method and system using radio tag

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015025878A1 (en) * 2013-08-21 2015-02-26 オリンパスイメージング株式会社 Imaging device, imaging method, and program
CN105637413A (en) * 2013-08-21 2016-06-01 奥林巴斯株式会社 Imaging device, imaging method, and program
JPWO2015025878A1 (en) * 2013-08-21 2017-03-02 オリンパス株式会社 Imaging apparatus, imaging method, and program
US9866737B2 (en) 2013-08-21 2018-01-09 Olympus Corporation Imaging apparatus with drivable optical sighting unit
CN105637413B (en) * 2013-08-21 2018-07-06 奥林巴斯株式会社 Photographic device and image capture method

Also Published As

Publication number Publication date
JP4573634B2 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
US11080882B2 (en) Display control device, display control method, and program
US10362429B2 (en) Systems and methods for generating spatial sound information relevant to real-world environments
JP7320239B2 (en) A robot that recognizes the direction of a sound source
US7502152B2 (en) Device for projecting an object in a space inside a vehicle
JP7173031B2 (en) Information processing device, information processing method, and program
JP2006267887A (en) Head mount display equipped with video recognition means
US20140002496A1 (en) Constraint based information inference
CN108014002A (en) Self-adaptive visual auxiliary device
US20140002495A1 (en) Multi-node poster location
CN110826358A (en) Animal emotion recognition method and device and storage medium
KR102090936B1 (en) Attention-based rendering and fidelity
Dhod et al. Low cost GPS and GSM based navigational aid for visually impaired people
CN113099031B (en) Sound recording method and related equipment
JP2006262980A (en) Information terminal and virtual pet display method
KR20180057839A (en) Intelligent robot capable of human recognition and operation method thereof
JP2022526702A (en) 3D sound device for the blind and visually impaired
JPWO2020105309A1 (en) Information processing equipment, information processing methods, and programs
JP4573634B2 (en) Information terminal device and status display system
JP5360115B2 (en) Head mounted display
JP4564344B2 (en) Information terminal device and translation system
JP7156300B2 (en) Information processing device, information processing method, and program
US20230122450A1 (en) Anchored messages for augmented reality
US11182976B2 (en) Device for influencing virtual objects of augmented reality
JP2019200607A (en) Information processing system and information processing method
KR101050107B1 (en) Video controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100817

R151 Written notification of patent or utility model registration

Ref document number: 4573634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees