WO2018008096A1 - Information display device and program - Google Patents

Information display device and program Download PDF

Info

Publication number
WO2018008096A1
WO2018008096A1 PCT/JP2016/069949 JP2016069949W WO2018008096A1 WO 2018008096 A1 WO2018008096 A1 WO 2018008096A1 JP 2016069949 W JP2016069949 W JP 2016069949W WO 2018008096 A1 WO2018008096 A1 WO 2018008096A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
subject
unit
display device
information display
Prior art date
Application number
PCT/JP2016/069949
Other languages
French (fr)
Japanese (ja)
Inventor
清水 宏
荒井 郁也
鈴木 基之
橋本 康宣
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to PCT/JP2016/069949 priority Critical patent/WO2018008096A1/en
Publication of WO2018008096A1 publication Critical patent/WO2018008096A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The purpose of the present invention is to implement a VR technique or AR technique using a simple low-cost configuration while eliminating the need for any high-level operational input such as complicated control. An information display device 10 comprises a personal digital assistant 100 which displays an image of a virtual space or an augmented reality space, and an enclosure holding the personal digital assistant 100. The personal digital assistant 100 has an acceleration sensor 164, an outward-facing camera 124, and an operation execution unit 104d including an image recognition unit. The acceleration sensor 164 detects a preset initiation condition. When the acceleration sensor 164 has detected the initiation condition, the outward-facing camera 124 begins capturing a video image. The operation execution unit 104d recognizes an operator's hand from the video image captured by the outward-facing camera 124, and displays the recognized hand or a hand image over an image. Further, the operation execution unit 104d determines an operational instruction indicated by the hand or hand image, and executes a process corresponding to the determined operational instruction.

Description

情報表示装置およびプログラムInformation display device and program
 本発明は、情報表示装置およびプログラムに関し、特に、仮想現実視および拡張現実視の表示に有効な技術に関する。 The present invention relates to an information display device and a program, and more particularly to a technique effective for displaying virtual reality and augmented reality.
 近年、HDM(Head Mount Display)などを利用したVR(Virtual Reality:仮想現実)あるいはAR(Augmented Reality:拡張現実)と呼ばれるコンピュータ、または携帯型計算機などが作成する画像を画面の全体あるいは実写画像の一部に重ねて表示させる技術が進歩している。 In recent years, an image created by a computer called VR (Virtual Reality) or AR (Augmented Reality) using HDM (Head-Mount Display), or an AR (Augmented Reality), or an image created by a portable computer or the like The technology to display a part of the image is advancing.
 一方、現在普及しているスマートフォン端末やタブレット端末では、上記したVR技術やAR技術による映像を作成可能なまでに性能が向上しており、その表示画面も専用のHMDと遜色のない程度の解像度を有するに至っている。 On the other hand, currently popular smartphone terminals and tablet terminals have improved performance before the above-mentioned VR technology and AR technology can be created, and the display screen has a resolution comparable to that of a dedicated HMD. Has led to.
 この様なことから、スマートフォン端末やタブレット端末などを段ボール紙やプラスティック製などによって形成した視聴用装置にて支持してHMDの代替とするような動きがある(例えば特許文献1,2参照)。以降、説明のためにスマートフォン端末やタブレット端末を携帯情報端末という。 For this reason, there is a movement to replace the HMD by supporting a smartphone terminal, a tablet terminal or the like with a viewing device formed of corrugated paper or plastic (for example, see Patent Documents 1 and 2). Hereinafter, a smart phone terminal and a tablet terminal are called portable information terminals for explanation.
 一般的に、携帯情報端末に対する指示や制御などの操作は、表示画面上のタッチセンサに対する携帯情報端末の使用者によって行われる。上記のような視聴用装置に携帯情報端末を装着した場合には、携帯情報端末の表示画面が視聴者の眼前に位置することになるので、VR技術やAR技術による表示内容に対しての操作指示が非常にやり難くなる。 Generally, operations such as instructions and control for the portable information terminal are performed by the user of the portable information terminal with respect to the touch sensor on the display screen. When the portable information terminal is mounted on the viewing apparatus as described above, the display screen of the portable information terminal is positioned in front of the viewer's eyes. It becomes very difficult to give instructions.
 このため、簡単な操作のための仕組みとしてHMDなどの視聴用装置に磁石や導電性部材などを取り付けて携帯情報端末に対する操作制御を行うものがある。 For this reason, as a mechanism for a simple operation, there is one that performs operation control on a portable information terminal by attaching a magnet or a conductive member to a viewing device such as an HMD.
 例えば、磁石を視聴用装置の側面に取り付けて該磁石を上下方向にスライドさせる操作により、携帯情報端末に内蔵される磁気センサが磁気の変化を感知することによってキー押下の有無の代替操作を行うことができる。 For example, when a magnet is attached to the side of the viewing device and the magnet is slid up and down, the magnetic sensor built in the portable information terminal detects a change in magnetism and performs an alternative operation for whether or not a key is pressed. be able to.
 また、導電性部材を保持具に取り付け、その一端を視聴用装置の側面に、他端を携帯情報端末のタッチパネル画面部分に接触させることによって、視聴用装置側面の導電性部材を視聴者が触ることで間接的にタッチ入力操作を行うことができる。(例えば、非特許文献1あるいは非特許文献2参照) In addition, the viewer touches the conductive member on the side of the viewing device by attaching the conductive member to the holder and contacting one end thereof to the side of the viewing device and the other end to the touch panel screen portion of the portable information terminal. Thus, the touch input operation can be performed indirectly. (For example, see Non-Patent Document 1 or Non-Patent Document 2)
特開2015-106915号公報Japanese Patent Laying-Open No. 2015-106915 特開2016-5125号公報Japanese Unexamined Patent Publication No. 2016-5125
 上述した特許文献1あるいは特許文献2に記載のヘッドマウント型表示システムは、使用者の頭部に装着するためのヘッドマウント型表示装置へ当該装置の表示および表示制御機能を担う携帯情報端末を挿入して仮想現実(以下、VR)画像や拡張現実(以下、AR)画像を体感させるものである。 In the head-mounted display system described in Patent Document 1 or Patent Document 2 described above, a portable information terminal responsible for display and display control functions of the device is inserted into a head-mounted display device to be mounted on the user's head. Thus, a virtual reality (hereinafter referred to as VR) image or an augmented reality (hereinafter referred to as AR) image is experienced.
 しかしながら、特許文献1や特許文献2に記載の技術では、高価な専用の表示装置は不要とするものの表示情報や表示内容に応じた制御を行うためには、携帯情報端末の側面に配置されているボタン類を操作する必要がある。 However, the techniques described in Patent Document 1 and Patent Document 2 do not require an expensive dedicated display device, but are arranged on the side surface of the portable information terminal in order to perform control according to display information and display contents. It is necessary to operate the buttons.
 あるいは、非特許文献1や非特許文献2に示されるような携帯情報端末を用いてVR技術やAR技術を用いた映像表示を行うための視聴用装置に取り付けられる簡易入力技術などが必要となる。また、簡易入力技術による入力操作としても携帯情報端末に備わるタッチセンサに対するクリック入力操作や画面スクロール操作程度などの簡単な操作でしかない。 Alternatively, a simple input technology attached to a viewing device for performing video display using VR technology or AR technology using a portable information terminal as shown in Non-Patent Literature 1 or Non-Patent Literature 2 is required. . In addition, the input operation using the simple input technology is merely a simple operation such as a click input operation or a screen scroll operation with respect to the touch sensor provided in the portable information terminal.
 本発明の目的は、複雑な制御などの高度な操作入力を不要としながら、簡易で安価な構成によってVR技術あるいはAR技術を実現することのできる技術を提供することにある。 An object of the present invention is to provide a technology capable of realizing the VR technology or the AR technology with a simple and inexpensive configuration while eliminating the need for advanced operation inputs such as complicated control.
 本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。 The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.
 本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。 Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.
 すなわち、代表的な情報表示装置は、携帯情報端末および筐体を有する。携帯情報端末は、仮想空間または拡張現実空間の画像を表示する。筐体は、携帯情報端末を保持する。 That is, a typical information display device has a portable information terminal and a housing. The portable information terminal displays a virtual space or augmented reality space image. The housing holds the portable information terminal.
 この携帯情報端末は、検出部、第1の撮像部、画像認識部、および操作実行部を有する。検出部は、予め設定された開始条件を検出する。第1の撮像部は、検出部が開始条件を検出した際に映像の撮影を開始する。 This portable information terminal has a detection unit, a first imaging unit, an image recognition unit, and an operation execution unit. The detecting unit detects a preset start condition. The first imaging unit starts capturing an image when the detection unit detects a start condition.
 画像認識部は、第1の撮像部が撮影する映像から画像合成用被写体を認識し、認識した画像合成用被写体または画像合成用被写体をオブジェクト処理した被写体画像を画像に表示する。 The image recognition unit recognizes an image composition subject from the video imaged by the first imaging unit, and displays the recognized image composition subject or a subject image obtained by subjecting the image composition subject to object processing.
 操作実行部は、画像合成用被写体または被写体画像による操作指示を判定し、判定した操作指示に対応する処理を実行する。 The operation execution unit determines an operation instruction based on the image composition subject or the subject image, and executes processing corresponding to the determined operation instruction.
 特に、操作実行部は、画像認識部が画像合成用被写体または画像合成用被写体をオブジェクト処理した被写体画像を画像に表示した際に、画像に操作指示入力画像を表示する。操作指示入力画像は、画像合成用被写体または被写体画像による記操作指示を入力する画像である。 In particular, the operation execution unit displays an operation instruction input image on the image when the image recognition unit displays an image composition subject or a subject image obtained by subjecting the image composition subject to object processing. The operation instruction input image is an image for inputting a recording operation instruction using a subject for image composition or a subject image.
 本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。 Among the inventions disclosed in the present application, effects obtained by typical ones will be briefly described as follows.
 (1)低コストで容易に情報表示装置の操作を行うことができる。 (1) The information display device can be easily operated at a low cost.
 (2)上記(1)により、情報表示装置を使用する操作者の利便性を向上させることができる。 (2) According to the above (1), the convenience of the operator who uses the information display device can be improved.
実施の形態1による情報表示装置の概観の一例を示す説明図である。2 is an explanatory diagram illustrating an example of an overview of an information display device according to Embodiment 1. FIG. 図1の情報表示装置における正面側の概観の一例を示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of an appearance on the front side in the information display device of FIG. 1. 図1の情報表示装置に用いられる携帯情報端末の概観の一例を示す説明図である。It is explanatory drawing which shows an example of the external appearance of the portable information terminal used for the information display apparatus of FIG. 図3の携帯情報端末における構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure in the portable information terminal of FIG. 図3の携帯情報端末の表示部が表示する画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image which the display part of the portable information terminal of FIG. 3 displays. 図4の携帯情報端末におけるソフトウェア構成の一例を示す説明図である。It is explanatory drawing which shows an example of the software structure in the portable information terminal of FIG. 携帯情報端末が有する図6の操作実行部による操作制御処理の一例を示す説明図である。It is explanatory drawing which shows an example of the operation control process by the operation execution part of FIG. 6 which a portable information terminal has. 図6の操作実行部による制御操作の一例を説明するフローチャートである。It is a flowchart explaining an example of control operation by the operation execution part of FIG. 図1の情報表示装置が表示している市街地内の風景の一例を示す説明図である。It is explanatory drawing which shows an example of the scenery in the city area which the information display apparatus of FIG. 1 is displaying. 図9に続く説明図である。It is explanatory drawing following FIG. 図6の操作実行部による制御操作の他の例を説明するフローチャートである。It is a flowchart explaining the other example of control operation by the operation execution part of FIG. 図11の制御操作における情報表示装置の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of the information display apparatus in control operation of FIG. 図12に続く説明図である。It is explanatory drawing following FIG. 実施の形態2による情報表示装置における経路案内の一例を示す説明図である。10 is an explanatory diagram showing an example of route guidance in the information display device according to Embodiment 2. FIG. 図14の情報表示装置における経路案内の他の例を示す説明図である。It is explanatory drawing which shows the other example of the route guidance in the information display apparatus of FIG. 図14および図15に図示した経路設定技術によって設定された経路に沿った道案内表示の一例を示す説明図である。FIG. 16 is an explanatory diagram illustrating an example of a route guidance display along a route set by the route setting technique illustrated in FIGS. 14 and 15. 実施の形態3による情報表示装置の概観の一例を示す説明図である。10 is an explanatory diagram illustrating an example of an overview of an information display device according to Embodiment 3. FIG. 図17の情報表示装置が有する携帯情報端末における構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure in the portable information terminal which the information display apparatus of FIG. 17 has. 図17の情報表示装置の概観の他の例を示す説明図である。FIG. 18 is an explanatory diagram illustrating another example of an overview of the information display device in FIG. 17. 図19の情報表示装置が有する携帯情報端末における構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure in the portable information terminal which the information display apparatus of FIG. 19 has. 実施の形態4による情報表示装置10における操作の一例を示す説明図である。10 is an explanatory diagram illustrating an example of an operation in the information display device 10 according to Embodiment 4. FIG. 図22は、図21に続く説明図である。FIG. 22 is an explanatory diagram following FIG. 図23は、図22に続く説明図である。FIG. 23 is an explanatory diagram following FIG. 図21~図23に示す操作例における操作制御処理の一例を示すフローチャートである。24 is a flowchart showing an example of operation control processing in the operation examples shown in FIGS. 21 to 23.
 以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。 In the following embodiments, when it is necessary for the sake of convenience, the description will be divided into a plurality of sections or embodiments. However, unless otherwise specified, they are not irrelevant to each other. There are some or all of the modifications, details, supplementary explanations, and the like.
 また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。 Further, in the following embodiments, when referring to the number of elements (including the number, numerical value, quantity, range, etc.), especially when clearly indicated and when clearly limited to a specific number in principle, etc. Except, it is not limited to the specific number, and may be more or less than the specific number.
 さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。 Further, in the following embodiments, the constituent elements (including element steps and the like) are not necessarily indispensable unless otherwise specified and apparently essential in principle. Needless to say.
 同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。 Similarly, in the following embodiments, when referring to the shape, positional relationship, etc. of components, etc., the shape of the component is substantially the case unless it is clearly specified and the case where it is clearly not apparent in principle. And the like are included. The same applies to the above numerical values and ranges.
 また、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。 In all the drawings for explaining the embodiments, the same members are, in principle, given the same reference numerals, and the repeated explanation thereof is omitted.
 以下、実施の形態を詳細に説明する。 Hereinafter, embodiments will be described in detail.
 (実施の形態1)
 〈情報表示装置の概観〉
 図1は、本実施の形態1による情報表示装置10の概観の一例を示す説明図である。この図1では、情報表示装置10を操作者1が装着している様子を真上から見たものである。
(Embodiment 1)
<Overview of information display device>
FIG. 1 is an explanatory diagram showing an example of an overview of the information display device 10 according to the first embodiment. In FIG. 1, a state in which the operator 1 is wearing the information display device 10 is viewed from directly above.
 情報表示装置10は、図1に示すように、眼鏡状の筐体30を有する。この筐体30は、例えば段ボール紙またはプラスティック板などの成形が容易で安価なものによって形成されており、該筐体30の前面には、スリット部20が形成されている。 The information display device 10 has a glasses-like housing 30 as shown in FIG. The housing 30 is formed of an easily and inexpensive material such as corrugated paper or a plastic plate. A slit portion 20 is formed on the front surface of the housing 30.
 このスリット部20は、携帯情報端末100が挿入される溝状の隙間である。携帯情報端末100は、例えばスマートフォンやタブレット端末などからなる。スリット部20の後方には、2つの拡大レンズ11がそれぞれ設けられている。 The slit portion 20 is a groove-like gap into which the portable information terminal 100 is inserted. The portable information terminal 100 is composed of, for example, a smartphone or a tablet terminal. Two magnifying lenses 11 are respectively provided behind the slit portion 20.
 各々の拡大レンズ11は、操作者1の左右の目にそれぞれ対応するように設けられている。スリット部20に挿入された携帯情報端末100の表示部121に表示される画像は、これら拡大レンズ11によって拡大されて操作者1の左右の目に入る。 Each magnifying lens 11 is provided so as to correspond to the left and right eyes of the operator 1, respectively. An image displayed on the display unit 121 of the portable information terminal 100 inserted into the slit unit 20 is magnified by the magnifying lens 11 and enters the left and right eyes of the operator 1.
 拡大レンズ11は、操作者1が左右の目で見る画像が大画面表示と感じ得るように設計され設置される。なお、左右に設置する拡大レンズ11は同じ特性を有し、左右対称に配置する。 The magnifying lens 11 is designed and installed so that the image viewed by the operator 1 with the left and right eyes can be felt as a large screen display. The magnifying lenses 11 installed on the left and right have the same characteristics and are arranged symmetrically.
 また、右目に対応する右側の拡大レンズ11と左目に対応する左側の拡大レンズ11との間には、隔壁12が設けられている。この隔壁12は、仕切り板として機能し、各々の拡大レンズ11によって拡大表示された左右の画像が混合しないようにするためのものである。 Further, a partition wall 12 is provided between the right magnifying lens 11 corresponding to the right eye and the left magnifying lens 11 corresponding to the left eye. The partition wall 12 functions as a partition plate, and prevents the left and right images enlarged and displayed by the respective magnifying lenses 11 from being mixed.
 なお、図1では、スリット部20および拡大レンズ11などの内部構造が説明のために上部から見えるように記載しているが、これらを筐体30にて蓋のように被い、操作者1が頭部を上下左右に動かしても携帯情報端末100が飛び出したり、ずれたりしないよう様にすることもできる。 In FIG. 1, the internal structure such as the slit portion 20 and the magnifying lens 11 is described so as to be visible from the top for the sake of explanation. However, even if the head is moved up, down, left, or right, the portable information terminal 100 can be prevented from popping out or shifting.
 このように、スリット部20に挿入された携帯情報端末100の表示画面を拡大レンズ11によって拡大することにより、VR表示やAR表示などの画像表示が行われ、簡易なヘッドマウントディスプレイの表示システムが構築される。 Thus, by enlarging the display screen of the portable information terminal 100 inserted into the slit portion 20 with the magnifying lens 11, image display such as VR display or AR display is performed, and a simple head-mounted display display system is provided. Built.
 図2は、図1の情報表示装置10における正面側の概観の一例を示す説明図である。この図2は、図1の情報表示装置10の装着状態を操作者1の前方から見た様子を示している。 FIG. 2 is an explanatory diagram showing an example of an overview of the front side of the information display device 10 of FIG. FIG. 2 shows a state where the wearing state of the information display device 10 of FIG. 1 is viewed from the front of the operator 1.
 図2に示すように、筐体30には、正面側に窓13が設けられている。この窓13は、携帯情報端末100の背面に備わる図3にて後述するアウトカメラ124および距離センサ167が露呈するようになっている。情報表示装置10は、アウトカメラ124を用いてVRやARなどの画像表示に対する各種操作を行うものである。 As shown in FIG. 2, the casing 30 is provided with a window 13 on the front side. This window 13 is exposed to an out camera 124 and a distance sensor 167 described later with reference to FIG. 3 provided on the back surface of the portable information terminal 100. The information display apparatus 10 performs various operations for image display such as VR and AR using the out camera 124.
 この例では、アウトカメラ124のレンズ部分の周辺を露呈する窓を設ける構成としているが、携帯情報端末100の背面全体を露呈させるような構造としてもよく、背面に備わるアウトカメラ124のレンズ部分が筐体に覆われないような構成であればよい。 In this example, a window that exposes the periphery of the lens portion of the out camera 124 is provided. However, the entire back surface of the portable information terminal 100 may be exposed, and the lens portion of the out camera 124 provided on the back surface may be provided. Any configuration that is not covered by the housing may be used.
 なお、以下に述べる各実施の形態における情報表示装置10の構成においても同様であり、必要な機能が覆われない様にして、かつ情報表示装置10の構成を成す携帯情報端末100を保持可能な構成であれば、情報表示装置10の背面部の構成はどのような構成であってもよい。 The same applies to the configuration of the information display device 10 in each embodiment described below, and the portable information terminal 100 constituting the configuration of the information display device 10 can be held so that necessary functions are not covered. As long as it has a configuration, the configuration of the back surface of the information display device 10 may be any configuration.
 〈携帯情報端末の概観〉
 図3は、図1の情報表示装置10に用いられる携帯情報端末100の概観の一例を示す説明図である。
<Overview of portable information terminal>
FIG. 3 is an explanatory diagram showing an example of an overview of the portable information terminal 100 used in the information display device 10 of FIG.
 なお、図3は、携帯情報端末100がスマートフォンなどの情報端末機器である場合の例を示している。図3(a)は、携帯情報端末100の正面図であり、図3(b)は、携帯情報端末100の背面図である。左右側面および天地面などに関しては図示を省略する。 FIG. 3 shows an example in which the portable information terminal 100 is an information terminal device such as a smartphone. FIG. 3A is a front view of the portable information terminal 100, and FIG. 3B is a rear view of the portable information terminal 100. Illustrations of the left and right side surfaces and the ceiling are omitted.
 図3(a)において、携帯情報端末100の上面には、スピーカ180が設けられている。携帯情報端末100正面の上方中央部には、イヤースピーカ131が設けられており、該イヤースピーカ131の左側には、インカメラ123が設けられている。 3A, a speaker 180 is provided on the top surface of the portable information terminal 100. An ear speaker 131 is provided in the upper center portion of the front surface of the portable information terminal 100, and an in-camera 123 is provided on the left side of the ear speaker 131.
 携帯情報端末100正面の下方中央部には、ホームキー182が設けられており、イヤースピーカ131とホームキー182との間には、図4にて後述する長方形状の表示部121が設けられている。 A home key 182 is provided at the lower center of the front surface of the portable information terminal 100, and a rectangular display unit 121 described later with reference to FIG. 4 is provided between the ear speaker 131 and the home key 182. Yes.
 携帯情報端末100の右側側面の上方には、電源キー183が設けられている。携帯情報端末100の下面の中央部には、マイク133が設けられており、該マイク133の左側には、スピーカ184が設けられている。 A power key 183 is provided above the right side surface of the portable information terminal 100. A microphone 133 is provided at the center of the lower surface of the portable information terminal 100, and a speaker 184 is provided on the left side of the microphone 133.
 また、図3(b)において、携帯情報端末100背面の上方左側には、アウトカメラ124が設けられており、該アウトカメラ124の右側には、距離センサ167が設けられている。 3B, an out camera 124 is provided on the upper left side of the back surface of the portable information terminal 100, and a distance sensor 167 is provided on the right side of the out camera 124.
 スピーカ180,184は、音楽や効果音などを聞くためにスピーカである。イヤースピーカ131は、携帯情報端末100を電話機として利用する際使用されるスピーカである。インカメラ123は、表示部121側の画像を取得するカメラである。 Speakers 180 and 184 are speakers for listening to music and sound effects. The ear speaker 131 is a speaker used when the portable information terminal 100 is used as a telephone. The in-camera 123 is a camera that acquires an image on the display unit 121 side.
 ホームキー182は、表示部121に表示される表示画面を基本画面などに戻すキーである。表示部121は、画像や文字などの様々情報を表示するモニタであり、該表示部121は、タッチパネルとしても機能する。 The home key 182 is a key for returning the display screen displayed on the display unit 121 to the basic screen or the like. The display unit 121 is a monitor that displays various information such as images and characters, and the display unit 121 also functions as a touch panel.
 電源キー183は、携帯情報端末100の電源をオン/オフするキーである。第1の撮像部であるアウトカメラ124は、表示部121と対面する面側、すなわち携帯情報端末100の背面側の画像を取得するカメラである。 The power key 183 is a key for turning on / off the power of the portable information terminal 100. The out-camera 124 that is the first imaging unit is a camera that acquires an image on the side facing the display unit 121, that is, the back side of the portable information terminal 100.
 距離測定部である距離センサ167は、アウトカメラ124の被写体との距離を測定するセンサであり、赤外線、超音波、あるいはレーザなどを用いて被写体までの距離を測定する。なお、距離センサ167は、アウトカメラ124と連動して使用することもできるが、単独の距離センサとしても使用可能である。 The distance sensor 167, which is a distance measuring unit, is a sensor that measures the distance from the subject of the out-camera 124, and measures the distance to the subject using infrared rays, ultrasonic waves, lasers, or the like. The distance sensor 167 can be used in conjunction with the out-camera 124, but can also be used as a single distance sensor.
 前述した電源キー183、表示部121のタッチパネル、およびホームキー182などの各種操作用インタフェースは、携帯情報端末として単独で使用する際に必要な機能であるが本実施の形態における表示操作には必ずしも必要ではない。 The various operation interfaces such as the power key 183, the touch panel of the display unit 121, and the home key 182 described above are functions necessary when used alone as a portable information terminal, but are not necessarily required for display operation in this embodiment. Not necessary.
 また、スピーカ180,184は、いずれか1つのみを設ける構成であってもよい。図3に示すように、2つのスピーカ180,184を設けた場合には、例えば図1に示すように携帯情報端末100を筐体30のスリット部20に挿入した状態において映像表示を行う際にステレオスピーカとして利用することができる。 Moreover, the structure which provides only one of the speakers 180 and 184 may be sufficient. As shown in FIG. 3, when two speakers 180 and 184 are provided, for example, when video display is performed with the portable information terminal 100 inserted into the slit portion 20 of the housing 30 as shown in FIG. It can be used as a stereo speaker.
 アウトカメラ124および距離センサ167は、図2に示したように筐体30の窓13から露出するように携帯情報端末100をスリット部20に挿入するか、あるいは窓13の位置を決定するものとする。なお、情報表示装置10については、アウトカメラ124があればよいので、インカメラ123を省略するようにしてもよい。 As shown in FIG. 2, the out-camera 124 and the distance sensor 167 insert the portable information terminal 100 into the slit portion 20 so as to be exposed from the window 13 of the housing 30 or determine the position of the window 13. To do. Since the information display device 10 only needs the out camera 124, the in camera 123 may be omitted.
 〈携帯情報端末の構成例〉
 図4は、図3の携帯情報端末100における構成の一例を示すブロック図である。
<Configuration example of portable information terminal>
FIG. 4 is a block diagram showing an example of the configuration of the portable information terminal 100 of FIG.
 携帯情報端末100は、図4に示すように、主制御部101、システムバス102、ROM103、RAM104、ストレージ部110、画像処理部120、音声処理部130、操作部140、通信処理部150、センサ部160、および拡張インタフェース部170などにより構成される。 As shown in FIG. 4, the portable information terminal 100 includes a main control unit 101, a system bus 102, a ROM 103, a RAM 104, a storage unit 110, an image processing unit 120, an audio processing unit 130, an operation unit 140, a communication processing unit 150, a sensor. Unit 160, an extended interface unit 170, and the like.
 携帯情報端末100は、ヘッドマウントディスプレイの代替となり得る表示部および性能を有していればスマートフォンやタブレット端末など以外であってもよい。例えば携帯型ゲーム機、またはその他の携帯用デジタル機器などであってもよい。 The portable information terminal 100 may be other than a smartphone, a tablet terminal, or the like as long as it has a display unit and performance that can be substituted for a head-mounted display. For example, a portable game machine or other portable digital device may be used.
 主制御部101は、所定のプログラムに従って携帯情報端末100全体を制御するマイクロプロセッサユニットである。システムバス102は、主制御部101と携帯情報端末100内の各機能部との間でデータ送受信を行うためのデータ通信路である。 The main control unit 101 is a microprocessor unit that controls the entire portable information terminal 100 according to a predetermined program. The system bus 102 is a data communication path for performing data transmission / reception between the main control unit 101 and each functional unit in the portable information terminal 100.
 ROM(Read Only Memory)103は、オペレーティングシステムなどの基本動作プログラムやその他のアプリケーションプログラムなどが格納されたメモリである。ROM103は、例えばEEPROM(Electrically Erasable Programmable ROM)やフラッシュROMのような書き換え可能なROMが用いられる。 ROM (Read Only Memory) 103 is a memory in which a basic operation program such as an operating system and other application programs are stored. As the ROM 103, for example, a rewritable ROM such as an EEPROM (Electrically Erasable Programmable や ROM) or a flash ROM is used.
 RAM(Random Access Memory)104は、基本動作プログラムやその他のアプリケーションプログラム実行時のワークエリアとなる。ROM103およびRAM104は、主制御部101と一体構成であってもよい。 RAM (Random Access Memory) 104 serves as a work area for executing basic operation programs and other application programs. The ROM 103 and the RAM 104 may be integrated with the main control unit 101.
 また、ROM103は、図4において独立した構成となっているが、例えばストレージ部110内の一部記憶領域である各種情報/データ記憶領域110cを使用するよう構成であってもよい。 Further, the ROM 103 has an independent configuration in FIG. 4, but may be configured to use various information / data storage areas 110c, which are partial storage areas in the storage unit 110, for example.
 ストレージ部110は、携帯情報端末100の各動作設定値や携帯情報端末100のユーザの情報などを記憶する。また、携帯情報端末100が有するインカメラ123やアウトカメラ124にて撮影した静止画像データや動画像データなども記憶可能である。このストレージ部110は、ネットワーク上からダウンロードした新規アプリケーションプログラムや画像データなども記憶可能である。 The storage unit 110 stores each operation setting value of the portable information terminal 100, information of the user of the portable information terminal 100, and the like. In addition, still image data and moving image data captured by the in-camera 123 and the out-camera 124 of the portable information terminal 100 can be stored. The storage unit 110 can also store new application programs and image data downloaded from the network.
 ストレージ部110の一部領域をもってROM103の機能の全部または一部を代替してもよい。また、ストレージ部110は、携帯情報端末100に電源が供給されていない状態であっても記憶している情報を保持する必要がある。したがって、例えばフラッシュROMやSSD(Solid State Drive)、あるいはHDD(Hard Disc Drive)などのデバイスが用いられる。 The whole or part of the functions of the ROM 103 may be substituted with a partial area of the storage unit 110. In addition, the storage unit 110 needs to retain stored information even when power is not supplied to the portable information terminal 100. Therefore, a device such as a flash ROM, SSD (Solid State Drive), or HDD (Hard Disc Drive) is used.
 画像処理部120は、表示部121、画像信号処理部122、インカメラ123、およびアウトカメラ124などによって構成される。表示部121は、例えば液晶パネルや有機EL(Electro Luminescence)パネルなどの表示デバイスであり、画像信号処理部122が処理したVRやARなどの画像データを携帯情報端末100の操作者1に提供する。 The image processing unit 120 includes a display unit 121, an image signal processing unit 122, an in-camera 123, an out-camera 124, and the like. The display unit 121 is a display device such as a liquid crystal panel or an organic EL (Electro-Luminescence) panel, for example, and provides image data such as VR and AR processed by the image signal processing unit 122 to the operator 1 of the portable information terminal 100. .
 画像信号処理部122は、図示しないビデオRAMを備えており、該ビデオRAMに入力された画像データに基づいて、表示部121が駆動される。また、画像信号処理部122は、必要に応じてフォーマット変換、メニューやその他のOSD(On Screen Display)信号の重畳処理などを行う機能を有する。 The image signal processing unit 122 includes a video RAM (not shown), and the display unit 121 is driven based on the image data input to the video RAM. Further, the image signal processing unit 122 has a function of performing format conversion, menu and other OSD (On Screen Display) signal superimposing processing as required.
 インカメラ123およびアウトカメラ124は、CCD(Charge Coupled Device)あるいはCMOS(Complementary Metal Oxide Semiconductor)センサなどの電子デバイスを用いてレンズから入力した光を電気信号に変換することにより、周囲や対象物の画像データを入力するカメラユニットである。 The in-camera 123 and the out-camera 124 convert light input from a lens into an electric signal using an electronic device such as a CCD (Charge-Coupled Device) or a CMOS (Complementary-Metal-Oxide-Semiconductor) sensor. This is a camera unit for inputting image data.
 音声処理部130は、イヤースピーカ131、音声信号処理部132、マイク133、スピーカ180,184などから構成される。 The audio processing unit 130 includes an ear speaker 131, an audio signal processing unit 132, a microphone 133, speakers 180 and 184, and the like.
 イヤースピーカ131は、音声信号処理部132にて処理した音声信号を携帯情報端末100の使用者に提供する。マイク133は、使用者の声などを音声データに変換して入力する。なお、マイク133は、携帯情報端末100と別体として、有線通信または無線通信により携帯情報端末100に接続されるものであってもよい。 The ear speaker 131 provides the audio signal processed by the audio signal processing unit 132 to the user of the portable information terminal 100. The microphone 133 converts a user's voice and the like into voice data and inputs the voice data. Microphone 133 may be connected to portable information terminal 100 by wired communication or wireless communication as a separate body from portable information terminal 100.
 スピーカ180,184は、音声信号処理部132にて処理した音声や音楽などを再生して出力する。これによって、携帯情報端末100から離れていても音声などを聞くことができる出力能力を有している。 Speakers 180 and 184 reproduce and output voice and music processed by the voice signal processing unit 132. Thereby, it has an output capability that allows the user to listen to voice and the like even when away from the portable information terminal 100.
 なお、スピーカ180,184は、前述したように、いずれか一方のスピーカのみを設ける構成としてもよい。この場合は、モノラル音として音声出力することになる。また、スピーカ180,184の両方を備える場合には、ステレオ音として音声出力できるように構成してもよい。 Note that the speakers 180 and 184 may be configured to include only one of the speakers as described above. In this case, the sound is output as a monaural sound. Further, when both the speakers 180 and 184 are provided, the sound may be output as a stereo sound.
 操作部140は、表示部121において入力操作を行うタッチパネル、およびホームキー182、および電源キー183などのキーにて構成される。また、タッチパネル機能は、上述したように表示部121が備え持っているものである。さらに、操作部140の配置や構成はどのようなものであっても構わない。 The operation unit 140 includes a touch panel that performs an input operation on the display unit 121, and keys such as a home key 182 and a power key 183. The touch panel function is provided in the display unit 121 as described above. Furthermore, any arrangement or configuration of the operation unit 140 may be used.
 通信処理部150は、LAN(Local Area Network)通信部151、移動体電話網通信部152、および近接無線通信部153から構成される。LAN通信部151は、例えば無線LANなどによる通信を行う。移動体電話網通信部152は、携帯電話などによる移動体通信を行う。 The communication processing unit 150 includes a LAN (Local Area Network) communication unit 151, a mobile telephone network communication unit 152, and a proximity wireless communication unit 153. The LAN communication unit 151 performs communication using, for example, a wireless LAN. The mobile telephone network communication unit 152 performs mobile communication using a mobile phone or the like.
 近接無線通信部153は、対応するリーダ/ライタとの近接時に無線通信を行う。LAN通信部151、移動体電話網通信部152、および近接無線通信部153は、それぞれ符号回路や復号回路、アンテナなどを備えるものとする。赤外線通信部などの他の通信部をさらに備えていてもよい。 The proximity wireless communication unit 153 performs wireless communication when close to the corresponding reader / writer. The LAN communication unit 151, the mobile telephone network communication unit 152, and the close proximity wireless communication unit 153 each include a coding circuit, a decoding circuit, an antenna, and the like. You may further provide other communication parts, such as an infrared communication part.
 また、VRやAR技術の新規のアプリケーションプログラムや画像データは、通信処理部150を介してインターネットなどからダウンロードすることもできる。 Also, new application programs and image data of VR and AR technologies can be downloaded from the Internet or the like via the communication processing unit 150.
 センサ部160は、携帯情報端末100の状態を検出するためのセンサ群である。ここでは、一例としてGPS(Global Positioning System)受信部161、ジャイロセンサ162、地磁気センサ163、加速度センサ164、照度センサ165、近接センサ166、および距離センサ167などによって構成される。 The sensor unit 160 is a sensor group for detecting the state of the portable information terminal 100. Here, as an example, a GPS (Global Positioning System) receiving unit 161, a gyro sensor 162, a geomagnetic sensor 163, an acceleration sensor 164, an illuminance sensor 165, a proximity sensor 166, a distance sensor 167, and the like are configured.
 GPS受信部161は、人工衛生からのGPS信号を受信する。ジャイロセンサ162は、いわゆる角速度センサであり、角速度を検出する。地磁気センサ163は、電子コンパスである。検出部である加速度センサ164は、携帯情報端末100の加速度を計測する。照度センサ165は、明るさを測定する。近接センサ166は、対象物体を非接触にて検出する。距離センサ167は、対象物体までの距離を測定する。 The GPS receiver 161 receives a GPS signal from artificial hygiene. The gyro sensor 162 is a so-called angular velocity sensor and detects the angular velocity. The geomagnetic sensor 163 is an electronic compass. The acceleration sensor 164 serving as a detection unit measures the acceleration of the portable information terminal 100. The illuminance sensor 165 measures brightness. The proximity sensor 166 detects the target object in a non-contact manner. The distance sensor 167 measures the distance to the target object.
 これらのセンサ群により、携帯情報端末100の位置、傾き、方角、動き、周囲の明るさ、周囲物の近接状況、および特定物までの距離などを検出することが可能となる。さらに、気圧センサなどの他のセンサを備えていてもよい。 These sensors can detect the position, tilt, direction, movement, brightness of surroundings, proximity of surrounding objects, distance to a specific object, and the like of the portable information terminal 100. Furthermore, you may provide other sensors, such as an atmospheric pressure sensor.
 携帯情報端末100においては、距離センサ167とアウトカメラ124との組み合わせにより、操作者1の手2を撮像し、画像合成用被写体である手2までの距離測定や指などの動きを検知することによって操作の有無や操作状況を判別するものである。 In the portable information terminal 100, the combination of the distance sensor 167 and the out-camera 124 captures the hand 2 of the operator 1 and detects the distance to the hand 2 that is a subject for image composition and the movement of a finger or the like. The presence / absence of the operation and the operation status are discriminated by the above.
 なお、図4に示した携帯情報端末100の構成例は、音声処理部130、あるいは拡張インタフェース部170などの必須ではない構成も多数含んでいるが、これらが備えられていない構成であっても本実施の形態の効果を損なうことはない。 Note that the configuration example of the portable information terminal 100 illustrated in FIG. 4 includes a number of non-essential configurations such as the audio processing unit 130 or the extension interface unit 170, but the configuration may not include these components. The effect of this embodiment is not impaired.
 〈画像表示例〉
 図5は、図3の携帯情報端末100の表示部121が表示する画像の一例を示す説明図である。
<Image display example>
FIG. 5 is an explanatory diagram showing an example of an image displayed on the display unit 121 of the portable information terminal 100 of FIG.
 情報表示装置10は、図1に示したように、操作者1の左目と右目にそれぞれ対応するように2つの拡大レンズ11が配置される構造となっている。よって、携帯情報端末100の表示部121には、図5(a)に示すように右目用画像と左目用画像とがそれぞれ表示される。この表示処理は、図3の画像処理部120が行う。 As shown in FIG. 1, the information display device 10 has a structure in which two magnifying lenses 11 are arranged so as to correspond to the left eye and the right eye of the operator 1, respectively. Therefore, the right eye image and the left eye image are respectively displayed on the display unit 121 of the portable information terminal 100 as shown in FIG. This display processing is performed by the image processing unit 120 in FIG.
 これによって、図1の操作者1は、図5(a)の左右画像を見て、図5(d)に示すようにひとつの画像として認識する。この時、右目用画像と左目用画像とを同じ表示とすると通常の二次元画像となり、左右の画像に視差情報を付加することにより、三次元画像として立体視を提供することも可能である。 Thereby, the operator 1 in FIG. 1 sees the left and right images in FIG. 5A and recognizes them as one image as shown in FIG. 5D. At this time, if the right-eye image and the left-eye image are displayed in the same manner, the image becomes a normal two-dimensional image, and stereoscopic vision can be provided as a three-dimensional image by adding parallax information to the left and right images.
 また、左右の画像を表示する際には、拡大レンズ11を通すことによって発生する画像歪を逆補正することにより、操作者1が認識する画像を図5(d)に示すように、歪のない矩形画像となるように表示処理を行っている。 Further, when displaying the left and right images, the image distortion generated by passing through the magnifying lens 11 is reversely corrected, whereby the image recognized by the operator 1 is corrected as shown in FIG. Display processing is performed so that there is no rectangular image.
 このため、左目および右目の画像エリアは、表示する際に補正処理が為されて、図5(a)に示すように、画像領域全体が矩形の膨らんだ形状となり、画像エリア内に表示される画像もそれに合わせた形状となっている。 Therefore, the left-eye and right-eye image areas are subjected to correction processing when displayed, and the entire image area has a rectangular swollen shape as shown in FIG. 5A, and is displayed in the image area. The image is also shaped accordingly.
 ここまでの画像処理は、画像処理部120によってVRまたはAR画像を表示する際に行われる基本処理となる。 The image processing so far is the basic processing performed when the image processing unit 120 displays a VR or AR image.
 続いて、図5(b)は、図5(a)の表示状態から操作者1が頭を右方向に向けた場合に情報表示装置10によって表示される画面の様子を示している。操作者1の頭の動きは、携帯情報端末100に備わるセンサ部160にて検出されて、頭部の動き量に合わせて画面が右方向に転回されることによって、図5(b)に示す画像を表示する。 Subsequently, FIG. 5B shows the state of the screen displayed by the information display device 10 when the operator 1 turns his head to the right from the display state of FIG. The movement of the head of the operator 1 is detected by the sensor unit 160 provided in the portable information terminal 100, and the screen is turned to the right in accordance with the amount of movement of the head, as shown in FIG. Display an image.
 逆に、図5(a)の状態から操作者1が頭部を左方向に動かした場合、情報表示装置10の表示画面は、図5(a)から左方向に続く画像である図5(c)を表示するように表示処理を行う。 On the other hand, when the operator 1 moves his / her head leftward from the state of FIG. 5A, the display screen of the information display device 10 is an image continuing in the leftward direction from FIG. 5A. Display processing is performed so as to display c).
 〈ソフトウェア構成例〉
 図6は、図4の携帯情報端末100におけるソフトウェア構成の一例を示す説明図である。この図6は、図4のROM103、RAM104、およびストレージ部110におけるソフトウェアの構成例を示したものである。
<Software configuration example>
FIG. 6 is an explanatory diagram showing an example of a software configuration in the portable information terminal 100 of FIG. 6 shows a configuration example of software in the ROM 103, the RAM 104, and the storage unit 110 shown in FIG.
 図6において、ROM103には、オペレーティングシステムなどの基本動作プログラム103aおよびその他のプログラム103bが記憶されている。ストレージ部110には、VRやAR表示を行うための情報表示プログラム110bおよびその他のプログラム110aが記憶されている。 6, the ROM 103 stores a basic operation program 103a such as an operating system and other programs 103b. The storage unit 110 stores an information display program 110b for performing VR and AR display and other programs 110a.
 ROM103に記憶された基本動作プログラム103aは、RAM104に展開され、さらに主制御部101が該RAM104に展開された基本動作プログラム103aを実行することにより、基本動作実行部104aを構成する。 The basic operation program 103 a stored in the ROM 103 is expanded in the RAM 104, and the main control unit 101 executes the basic operation program 103 a expanded in the RAM 104 to configure the basic operation execution unit 104 a.
 また、ストレージ部110に記憶された情報表示プログラム110bは、RAM104に展開され、主制御部101が該RAM104に展開された情報表示プログラム110bを実行する。 In addition, the information display program 110 b stored in the storage unit 110 is expanded in the RAM 104, and the main control unit 101 executes the information display program 110 b expanded in the RAM 104.
 これにより、情報表示実行部104bが構成される。この情報表示実行部104bは、位置/方位取得実行部104cおよび操作実行部104dを有する構成となる。また、RAM104は、各種アプリケーションプログラム実行時に、必要に応じてデータを一時的に保持する一時記憶領域104eを備えるものとする。 Thus, the information display execution unit 104b is configured. The information display execution unit 104b includes a position / orientation acquisition execution unit 104c and an operation execution unit 104d. The RAM 104 includes a temporary storage area 104e that temporarily holds data as necessary when various application programs are executed.
 なお、以下では、説明を簡単にするために、主制御部101がROM103に格納された基本動作プログラム103aをRAM104に展開して実行することにより、基本動作実行部104aが各部の制御処理を行うものとして記述する。他のアプリケーションプログラムに関しても同様の記述を行うものとする。 In the following, in order to simplify the description, the main operation unit 101 develops the basic operation program 103a stored in the ROM 103 into the RAM 104 and executes it, so that the basic operation execution unit 104a performs control processing for each unit. Describe as a thing. The same description is made for other application programs.
 RAM104上に展開された情報表示プログラム110bは、情報表示実行部104bにより図5に示すような左右目画像の生成および画像歪補正などを実行して表示部121にVRやAR画像を表示する。 The information display program 110b developed on the RAM 104 displays the VR or AR image on the display unit 121 by generating the left and right eye images and correcting the image distortion as shown in FIG.
 また、表示している画像を使用者の頭部の動きに合わせて転回する画像処理は、位置/方位取得実行部104cが実行し、以降で述べる表示内容に対する処理は、操作実行部104dが司る。 Further, the image processing for rotating the displayed image in accordance with the movement of the user's head is executed by the position / orientation acquisition executing unit 104c, and the processing for the display contents described below is controlled by the operation executing unit 104d. .
 なお、ここでは、上述した基本動作実行部104aおよび情報表示実行部104bがソフトウェアによって構成される例について記載したが、基本動作実行部104aおよび情報表示実行部104bの機能については、ハードウェア構成によって実現するようにしてもよい。 Here, an example in which the basic operation execution unit 104a and the information display execution unit 104b described above are configured by software has been described, but the functions of the basic operation execution unit 104a and the information display execution unit 104b depend on the hardware configuration. It may be realized.
 〈操作例〉
 続いて、操作実行部104dの処理について説明する。
<Operation example>
Next, processing of the operation execution unit 104d will be described.
 図7は、携帯情報端末100が有する図6の操作実行部104dによる操作制御処理の一例を示す説明図である。この図7は、携帯情報端末100が有する表示部121の表示情報に対する制御操作開始の指示を行っている様子を示した概念図である。 FIG. 7 is an explanatory diagram illustrating an example of an operation control process performed by the operation execution unit 104d illustrated in FIG. FIG. 7 is a conceptual diagram illustrating a state in which an instruction to start a control operation is performed on display information on the display unit 121 included in the portable information terminal 100.
 情報表示装置10では、図4の携帯情報端末100の操作部140などの操作部を用いることなく操作を開始するために、まず、図7(a)に示すように、情報表示装置10を操作者1の手2によって叩くなどの予め設定された動作を行う。 In the information display device 10, in order to start the operation without using the operation unit such as the operation unit 140 of the portable information terminal 100 in FIG. 4, first, as illustrated in FIG. 7A, the information display device 10 is operated. A preset operation such as tapping with the hand 2 of the person 1 is performed.
 携帯情報端末100のセンサ部160は、この動作が行われたことを検出すると、操作開始を指示する。この開始操作は、操作実行部104dの処理に従い、アウトカメラ124および距離センサ167をそれぞれ起動させる。これによって、図7(b)に示すように、所定範囲内にある操作者1の手2を撮像して実際の操作処理を開始する。 When the sensor unit 160 of the portable information terminal 100 detects that this operation has been performed, it instructs the start of the operation. This start operation activates the out camera 124 and the distance sensor 167 in accordance with the processing of the operation execution unit 104d. As a result, as shown in FIG. 7B, the hand 2 of the operator 1 within the predetermined range is imaged, and actual operation processing is started.
 これにより、簡単な操作者1のアクション操作によって情報表示装置10を操作開始の状態に遷移させることができる。 Thereby, the information display device 10 can be changed to the operation start state by a simple operator 1 action operation.
 〈操作制御の処理例〉
 図8は、図6の操作実行部104dによる制御操作の一例を説明するフローチャートである。
<Example of operation control processing>
FIG. 8 is a flowchart for explaining an example of the control operation by the operation execution unit 104d in FIG.
 まず、図7(a)にて説明したように、情報表示装置10の筐体30などを軽く叩いたりするタップ動作を行うことにより発生する振動パターンや加速度の有無をセンサ部160に備わるジャイロセンサ162や加速度センサ164などのセンサで検出する。 First, as described with reference to FIG. 7A, a gyro sensor provided in the sensor unit 160 includes a vibration pattern and acceleration generated by performing a tap operation of tapping the housing 30 of the information display device 10 or the like. It detects with sensors, such as 162 and the acceleration sensor 164. FIG.
 この際、検知条件を設定してもよく、例えば、所定時間内や所定間隔で所定回数の振動や加速度を検出することを条件としたり、操作者1が頭部を上下左右などに振ったり、その振った回数を検知条件として設定してもよい。 At this time, detection conditions may be set, for example, on condition that a predetermined number of vibrations and accelerations are detected within a predetermined time or at predetermined intervals, or the operator 1 shakes his / her head up and down, left and right, The number of times of shaking may be set as a detection condition.
 以上のように、検知処理により、情報表示装置10に対する所定動作の有無を判断する(ステップS101)。このステップS101の処理において、所定動作があれば、アウトカメラ124および距離センサ167を起動させて、該アウトカメラ124が撮像する画像の取り込み、および被写体との距離測定を実行する(ステップS102)。 As described above, the presence or absence of a predetermined operation on the information display device 10 is determined by the detection process (step S101). In the process of step S101, if there is a predetermined operation, the out camera 124 and the distance sensor 167 are activated to capture an image captured by the out camera 124 and measure the distance to the subject (step S102).
 アウトカメラ124によって操作者1の手2を撮像する際には、距離センサ167により予め設定された距離L内で、アウトカメラ124の撮像範囲Eの中、すなわち図7(b)のドットにて示す領域内にある手2を画像認識処理してオブジェクト処理を行う(ステップS103)。このオブジェクト処理は、表示部121に表示しているVRやAR画像の中に後述する手画像2L,2Rとして表示するものである。 When the hand 2 of the operator 1 is imaged by the out camera 124, within the distance L preset by the distance sensor 167, in the imaging range E of the out camera 124, that is, at the dots in FIG. Image recognition processing is performed on the hand 2 in the area shown to perform object processing (step S103). This object processing is displayed as hand images 2L and 2R described later in the VR and AR images displayed on the display unit 121.
 オブジェクト化としては、予め用意した抽象的な手の画像でもよいし、あるいはアウトカメラ124により撮像した操作者1の手の特徴点からオブジェクト生成した手画像でもよい。または、簡略化した指の部分を示すような画像であってもよく、操作者の手や指の動きを表現できればよい。 The objectification may be an abstract hand image prepared in advance, or a hand image generated from the feature points of the hand of the operator 1 captured by the out camera 124. Alternatively, it may be an image showing a simplified finger portion as long as it can express the movement of the operator's hand or finger.
 続いて、オブジェクト化した手画像2L,2Rと実際の操作を行うためのキーボードや制御ボタンなどの制御オブジェクトを表示画像に合成して表示する(ステップS104)。 Subsequently, the object images 2L, 2R and control objects such as a keyboard and a control button for performing an actual operation are combined with the display image and displayed (step S104).
 この際に、被写体画像である手画像2L,2Rは、撮像される操作者1の手2の動きに対応させて表示画像内で動かすことになる。そのため、手画像2L,2Rを動かす範囲を距離センサ167にて検出される範囲L内あるいはアウトカメラ124の撮像範囲内E、または所定距離と撮像範囲との双方で制限される範囲内に制限することでもよく、範囲L外の場合には、操作を休止する。あるいは中断するといった制御を行うようにしてもよい。 At this time, the hand images 2L and 2R, which are subject images, are moved in the display image in accordance with the movement of the hand 2 of the operator 1 to be imaged. Therefore, the range in which the hand images 2L and 2R are moved is limited to the range L detected by the distance sensor 167, the imaging range E of the out camera 124, or the range limited by both the predetermined distance and the imaging range. If it is outside the range L, the operation is paused. Alternatively, control such as interruption may be performed.
 そして、制御オブジェクトに対応するSNS(Social Networking Service)、チャット、店舗検索、検索、メールなどの表示部121の表示画像に関連するアプリケーションプログラムを起動する(ステップS105)。その後、手画像2L,2Rによる制御オブジェクトに対するキー押下やボタン押下などの予め設定される所定操作が行われているかの有無を検出する(ステップS106)。 Then, an application program related to the display image of the display unit 121 such as SNS (Social Networking Service), chat, store search, search, and mail corresponding to the control object is started (step S105). Thereafter, it is detected whether or not a predetermined operation such as key press or button press on the control object by the hand images 2L and 2R is performed (step S106).
 ここで、所定操作としては、例えばキーボードのキー押し操作、制御ボタンや制御オブジェクトなどの押下操作などがある。また、手画像による制御対象となるキーボードや制御ボタンなどの押下操作に代えて、制御対象の画像上に手画像を所定の時間留めることなどによる操作でもよい。 Here, examples of the predetermined operation include a key press operation on a keyboard and a press operation on a control button or a control object. Further, instead of pressing the keyboard or the control button to be controlled by the hand image, an operation by holding the hand image on the image to be controlled for a predetermined time may be used.
 また、前記した操作では、操作状態が確認できるようにキー押下やボタン選択の状態をポップアップ表示や操作対象の色を変えると言った表示を行うようにしてもよい。 Further, in the above-described operation, a key press or button selection state may be displayed as a pop-up display or a color of the operation target is changed so that the operation state can be confirmed.
 続いて、ステップS106の処理にて制御操作が有った場合には、キーボードの押下であれば文字入力や文章入力の確定処理とし、制御ボタンの押下であれば当該制御ボタンに割り付けられる制御プログラムの実行処理を行うなどの制御対象に割り付けられているアプリケーションプログラムを実行する(ステップS107)。 Subsequently, when there is a control operation in the process of step S106, if the keyboard is pressed, the character input or sentence input is determined, and if the control button is pressed, the control program is assigned to the control button. The application program assigned to the control target such as performing the execution process is executed (step S107).
 そして、例えばキーボード入力による文章作成が完了したか否かを、または制御ボタンの押下処理ではボタン押下により実行されるアプリケーションプログラムによって表示に反映された状態でよいかなどの判断を行う(ステップS108)。ここで、さらに制御操作を続ける必要があると使用者が判断した場合には操作を継続し、操作不要であれば終了となる。 Then, for example, it is determined whether or not the text creation by the keyboard input is completed, or in the control button pressing process, whether the state is reflected in the display by the application program executed by the button pressing (step S108). . Here, if the user determines that it is necessary to continue the control operation, the operation is continued, and if the operation is unnecessary, the operation is terminated.
 〈操作制御の表示例〉
 上記の操作制御について、図9の表示例に基づいて具体的に説明する。
<Example of operation control display>
The above operation control will be specifically described based on the display example of FIG.
 図9は、図1の情報表示装置10が表示している市街地内の風景の一例を示す説明図である。また、図10は、図9に続く説明図である。これら図9および図10は、情報表示装置10の表示部121に仮想空間あるいは実際の街並みを示す画像121aが表示されている例を示している。 FIG. 9 is an explanatory diagram showing an example of the scenery in the city area displayed by the information display device 10 of FIG. FIG. 10 is an explanatory diagram following FIG. 9 and 10 show an example in which an image 121a indicating a virtual space or an actual cityscape is displayed on the display unit 121 of the information display device 10. FIG.
 画像121aは、図9に示すように、路面店舗1001~1003が並ぶ街路でウィンドーショッピングを行っている画像であり、これから操作を開始しようとしている状況を示している。 As shown in FIG. 9, the image 121a is an image in which window shopping is performed on a street where road surface stores 1001 to 1003 are arranged, and shows a situation in which an operation is about to start.
 ここでは、図7に示したように、操作者1が操作を開始しようとして情報表示装置10の筐体を軽く叩く動作を行うとその振動が検出され、制御操作の開始指示があったと認識する。 Here, as shown in FIG. 7, when the operator 1 performs an operation of tapping the casing of the information display device 10 to start the operation, the vibration is detected and it is recognized that there is an instruction to start the control operation. .
 そして、図4の携帯情報端末100のアウトカメラ124および距離センサ167が起動して、操作者1の手の認識を開始する。この認識技術は、一般的な画像認識処理を用いることができる。 Then, the out-camera 124 and the distance sensor 167 of the portable information terminal 100 in FIG. 4 are activated and recognition of the hand of the operator 1 is started. This recognition technique can use general image recognition processing.
 図9では、最初に左手を認識している様子を示している。認識された操作者1の左手は、オブジェクト処理されて手画像2Lとして表示部121に合成表示される。 FIG. 9 shows how the left hand is first recognized. The recognized left hand of the operator 1 is subjected to object processing and synthesized and displayed on the display unit 121 as a hand image 2L.
 続いて、図10に示すように、まず左手で情報を知りたいお店の画像をタッチする動作を行うと、画像認識処理により、オブジェクト処理された手画像2Lも操作者1の手2と同じ動作が行われる。この動作によって、お店の選択操作を行うと、図10に示すように、選択されたお店の部分が抽出されて表示色を変える。 Subsequently, as shown in FIG. 10, when an operation of first touching an image of a store whose information is to be known is performed with the left hand, the hand image 2L subjected to object processing by the image recognition process is the same as the hand 2 of the operator 1. Operation is performed. When a store selection operation is performed by this operation, as shown in FIG. 10, the selected store portion is extracted and the display color is changed.
 ここでは、お店が選択されたことをお店の部分の表示色を変えることによって通知しているが、ハイライト表示や他のお店より大きく表示させるなどで選択状態となったことを通知できれば、どのような表示方法でもあってもよい。 Here, we notify that the store has been selected by changing the display color of the store part, but we will notify that it has been selected by highlighting or displaying it larger than other stores. If possible, any display method may be used.
 その後、右手を画像認識してオブジェクト処理することによって、右手の手画像2Rも合成表示し、さらに両手画像の認識をきっかけとして図10に示すキーボード画像1010を画面内に表示する。 Thereafter, the right hand image is recognized and subjected to object processing, so that the right hand image 2R is also synthesized and displayed, and the keyboard image 1010 shown in FIG.
 ここでは説明上、左手を先に認識しているが、右手を先に認識しても右手によるお店のタッチ操作を行っても構わないし、左右の手を同時に認識してどちらの手で操作をしても構わない。 Here, for the sake of explanation, the left hand is recognized first, but the right hand can be recognized first or the shop can be touched with the right hand, and both hands can be recognized at the same time. It does not matter.
 また、操作指示入力画像であるキーボード画像1010を先に表示した後にお店の選択を行うようにしてもよく、アプリケーションプログラムによって自在に設定すればよい。本例の操作用アプリケーションでは、左右の手を認識した時点でキーボード画像1010を表示し、関連するアプリケーションプログラムを起動している。 Further, the store image may be selected after first displaying the keyboard image 1010 which is an operation instruction input image, and may be set freely by an application program. In the operation application of this example, when the left and right hands are recognized, a keyboard image 1010 is displayed and a related application program is activated.
 両手の指先でキーボード画像1010のキーを押下する所作を行うと、例えば「A」キーを押す動作を行うとポップアップ画像1011が表示されて押下しているキーの確認ができる。 When an operation of pressing the key of the keyboard image 1010 with the fingertips of both hands is performed, for example, when an operation of pressing the “A” key is performed, a pop-up image 1011 is displayed and the pressed key can be confirmed.
 押下しているキーに間違いがなければ、そのまま次のキー入力動作に移ればよい。もし、押下キーに間違いがあれば、例えば手を振るジェスチャ動作などによって取り消しを指示する。あるいはキーボード画像1010の消去キーを押下する操作を行うことでもよい。 If there is no mistake in the key you are pressing, you can move on to the next key input operation. If there is an error in the pressed key, cancellation is instructed by, for example, a gesture operation of waving. Alternatively, an operation of pressing the delete key of the keyboard image 1010 may be performed.
 入力した文字は、SNSアプリケーションプログラムやチャットアプリケーションプログラムを起動して表示されるメッセージ表示エリア1020に直接表示してもよい。あるいは、図10に示すように、画面121aの右下の文字入力確認エリア1012に確認用として表示して文章入力を確定させた後にメッセージ表示エリア1020に表示してもよい。 The entered characters may be directly displayed in the message display area 1020 displayed by starting the SNS application program or chat application program. Alternatively, as shown in FIG. 10, it may be displayed in the message display area 1020 after the text input confirmation area 1012 on the lower right of the screen 121a is displayed for confirmation and the sentence input is confirmed.
 文章の入力については、通常のキーボードによる文字入力と同様に行うこともできるし、変換操作や文字確定用に特別なキーをキーボード画像1010上に配置するようにしてもよい。 Text input can be performed in the same manner as character input using a normal keyboard, or special keys for conversion operation and character confirmation may be arranged on the keyboard image 1010.
 この様にして、図10において、例えばお店1002の情報を問う「このお店のお勧めについて教えてください」と言うメッセージ1020を入力すると、他者とチャットなどを行い「ここは味噌ラーメンが美味しいです!」と言ったメッセージ1021を受け取り、該メッセージを画面121aに表示する。 In this way, in FIG. 10, for example, when a message 1020 that asks for information on the store 1002 “Please tell us about the recommendation of this store” is entered, chatting with others is performed, and “Miso Ramen is here. The message 1021 saying “It is delicious!” Is received and displayed on the screen 121a.
 チャットは、例えば図4の携帯情報端末100に備わる通信処理部150による通信機能を通じて通信が行われる。あるいは、ネットワーク上のお店情報を掲載しているサイトとリンクしてメッセージ情報を作成するようアプリケーションプログラムを構築してもよい。この場合も、図4の携帯情報端末100の通信処理部150による通信機能を通じて通信が行われる。 In chat, for example, communication is performed through a communication function by the communication processing unit 150 provided in the portable information terminal 100 of FIG. Alternatively, an application program may be constructed so as to create message information by linking to a site on which network shop information is posted. Also in this case, communication is performed through the communication function of the communication processing unit 150 of the portable information terminal 100 of FIG.
 以上のように、情報表示装置10に表示される画像121aの中でお店情報を取得するといった操作を簡単な操作者1の手ジェスチャだけで行うことができる。 As described above, operations such as acquiring shop information in the image 121a displayed on the information display device 10 can be performed only with a simple gesture of the operator 1.
 なお、操作の終了としては、画面上に操作終了ボタンを配置して押下することでもよいし、予め設定された一定時間内に手による操作がないことを判断して終了するようにしてもよい。あるいは、左右の手の認識が予め設定された時間以上ないことを検出して終了するようにしてもよい。 The operation may be ended by placing an operation end button on the screen and pressing it, or determining that there is no manual operation within a predetermined period of time. . Alternatively, the process may be terminated by detecting that the left and right hands are not recognized for a preset time.
 なお、キーボード画像1010は、両手操作での入力が行い易いように、例えば表示画面121aの中央下部などに配置する。これにより、実際にキーボード入力を行っている感覚に近いように画像配置や画像の大きさを設定することができる。 It should be noted that the keyboard image 1010 is arranged, for example, at the lower center of the display screen 121a so as to facilitate input by two-handed operation. Thereby, it is possible to set the image layout and the size of the image so as to be close to the feeling of actually performing keyboard input.
 また、キーボード画像1010をキー入力している間は大きく、キー入力を休止している間は他の情報表示の邪魔にならない様に小さく表示するといった表示制御を行ってもよい。 Also, display control may be performed such that the keyboard image 1010 is large while the key input is being performed, and is small while the key input is paused so as not to interfere with other information display.
 〈制御操作の他の例〉
 上述した図9および図10では、仮想空間上での街並みを再現する場合について説明したが、以下、実空間上での操作実行部104dによる制御例および表示例の場合について説明する。
<Other examples of control operations>
In FIGS. 9 and 10 described above, the case of reproducing the cityscape in the virtual space has been described. Hereinafter, a control example and a display example by the operation execution unit 104d in the real space will be described.
 図11は、図6の操作実行部104dによる制御操作の他の例を説明するフローチャートである。図12は、図11の制御操作における情報表示装置10の表示例を示す説明図である。図13は、図12に続く説明図である。 FIG. 11 is a flowchart for explaining another example of the control operation by the operation execution unit 104d in FIG. FIG. 12 is an explanatory diagram showing a display example of the information display device 10 in the control operation of FIG. FIG. 13 is an explanatory diagram following FIG.
 図12および図13は、情報表示装置10が表示する実空間上での操作の一例を示す説明図である。実空間上での表示では、携帯情報端末100のアウトカメラ124が常時動作して街並みを撮像しながら表示部121に表示している。 12 and 13 are explanatory diagrams showing an example of operations in the real space displayed by the information display device 10. In the display in the real space, the out camera 124 of the portable information terminal 100 is always operating and displaying on the display unit 121 while imaging the cityscape.
 まず、操作の開始は、図8のステップS101の処理と同様であり、情報表示装置10に対する所定動作を検出することによって操作が開始となる(ステップS101)。ここで、所定動作については、前述のとおり、情報表示装置10に対するタップ動作などによって操作開始指示と見なされる。操作開始に伴い、操作指示を行う操作者1の手2を認識するために距離センサ167が起動される。 First, the start of the operation is the same as the process of step S101 of FIG. 8, and the operation is started by detecting a predetermined operation on the information display device 10 (step S101). Here, as described above, the predetermined operation is regarded as an operation start instruction by a tap operation on the information display device 10 or the like. As the operation starts, the distance sensor 167 is activated to recognize the hand 2 of the operator 1 who gives the operation instruction.
 続いて、画像認識アプリケーションプログラムが起動して(ステップS202)、オブジェクト化した画像2Lが表示画像121bに表示される。図12に示すように、表示部121に表示されている表示画像121bの街並みの中に気なる店舗1002があった場合、その店舗部分を使用者の手画像2Lで指し示す。あるいは指で押下する様な動作を行う。 Subsequently, the image recognition application program is activated (step S202), and the image 2L that is converted into an object is displayed on the display image 121b. As shown in FIG. 12, when there is a store 1002 of interest in the street of the display image 121b displayed on the display unit 121, the store portion is indicated by the user's hand image 2L. Alternatively, an operation such as pressing with a finger is performed.
 これによって、画像認識アプリケーションプログラムがこの操作を検出して(ステップS203)、指し示された店舗の方位や位置情報を携帯情報端末100に備わるセンサ部160のGPS受信部161、ジャイロセンサ162、および地磁気センサ163などによって検出する。 Thereby, the image recognition application program detects this operation (step S203), and the GPS reception unit 161, the gyro sensor 162 of the sensor unit 160 provided in the portable information terminal 100 with the azimuth and position information of the indicated store, It is detected by the geomagnetic sensor 163 or the like.
 表示部121の表示画像121bは、図13に示すように、店舗1002部分を反転表示させるあるいは着色表示して際立たせる。一方で店舗1002の方角や店舗がビル高層階にあるなどの場合を考慮して仰ぎ見ている場合の角度を指し示す方位表示910、情報表示窓920、操作指示ボタン列921などの制御オブジェクトを実画像上に重畳表示する(ステップS204)。図13の方位表示910では、操作者1から店舗1002に対する方位911と仰角912それぞれを示している。 As shown in FIG. 13, the display image 121b of the display unit 121 highlights the store 1002 by highlighting it or by coloring it. On the other hand, control objects such as an azimuth display 910, an information display window 920, and an operation instruction button row 921 indicating the angle when the store 1002 is viewed in consideration of the direction of the store 1002 or the store is on a higher floor of the building are implemented. The image is superimposed and displayed on the image (step S204). The azimuth display 910 in FIG. 13 shows the azimuth 911 and the elevation angle 912 from the operator 1 to the store 1002.
 続いて、方位表示910に示される方位911や仰角912、店舗1002の撮像画像、携帯情報端末100にて取得している現在地のGPS情報などを用いて、検索アプリケーションプログラムや地図情報アプリケーションプログラムを起動して店舗1002に関する情報を取得する(ステップS205)。 Subsequently, the search application program and the map information application program are started using the azimuth 911 and elevation angle 912 shown in the azimuth display 910, the captured image of the store 1002, the GPS information of the current location acquired by the portable information terminal 100, and the like. And the information regarding the store 1002 is acquired (step S205).
 店舗1002の情報取得の一例としては、通信処理部150を通じてインターネットにアクセスし、GPS情報、方位情報、および仰角情報を用いて地図データベースとの照合を行い、店舗位置や店舗情報を取得することもできる。 As an example of information acquisition of the store 1002, accessing the Internet through the communication processing unit 150, collating with the map database using GPS information, azimuth information, and elevation angle information to acquire store position and store information. it can.
 また、店舗1002の画像およびGPS情報により得られる位置情報からインターネット上のデータベースなどと照合して店舗情報を取得することでもよい。 Further, the store information may be acquired by collating with the database on the Internet or the like from the location information obtained from the image of the store 1002 and the GPS information.
 本処理ステップでは、携帯情報端末100が取得する各種センサからのデータや画像データを用いて、外部ネットワークを介して図示しない外部のデータベースとの照合を実施する。これによって、店舗情報を取得するアプリケーションプログラムを実行するように構成すればよい。 In this processing step, collation with an external database (not shown) is performed via an external network using data and image data from various sensors acquired by the portable information terminal 100. Thus, an application program for acquiring store information may be executed.
 また、図13では、仰角912を表示しているが、店舗の所在する場所の高さ情報を表示してもよい。この場合には、GPS情報と地図データベースから高さを判断するようにしてもよい。 Further, although the elevation angle 912 is displayed in FIG. 13, the height information of the location where the store is located may be displayed. In this case, the height may be determined from the GPS information and the map database.
 あるいは、高さの精度を得るために携帯情報端末100のセンサ部にさらに図示しない気圧センサなどを備え、該気圧センサの情報から高さを判定して高さ情報を表示することでもよい。 Alternatively, in order to obtain the accuracy of the height, the sensor unit of the portable information terminal 100 may be further provided with a pressure sensor (not shown), and the height information may be displayed by determining the height from the information of the pressure sensor.
 この様にすることで、実際の店舗が高層ビルなどに存する場合にビルの何階あたりにあるかも把握できるようになり、より容易に操作者1が店舗位置などを把握することができる。 In this way, when an actual store exists in a high-rise building or the like, it becomes possible to grasp the number of floors in the building, and the operator 1 can more easily grasp the store position and the like.
 続いて、図13に示すように、表示部121に制御オブジェクトとしての制御ボタン列921を合成表示して次の操作指示を待つ(ステップS206)。この図13では、操作指示の一例として、「情報」、「予約」および「クーポン」の一連の制御ボタン列921を表示している。 Subsequently, as shown in FIG. 13, a control button row 921 as a control object is synthesized and displayed on the display unit 121 and a next operation instruction is awaited (step S206). In FIG. 13, as an example of the operation instruction, a series of control button rows 921 of “information”, “reservation”, and “coupon” are displayed.
 例えば、「情報」ボタンを手画像2Lにて押下する所作を行うと画像認識により押下判断がなされて、情報表示窓920に店舗1002に関する情報が表示される。「予約」ボタンを押下する所作を行えば、店舗で開催されるイベントへの参加予約や店舗へ行く時間指定の予約などを実行する。 For example, when an operation of pressing the “information” button on the hand image 2L is performed, a determination is made by image recognition, and information on the store 1002 is displayed in the information display window 920. If an operation of pressing the “Reserve” button is performed, a reservation for participation in an event held in the store, a reservation for specifying a time to go to the store, and the like are executed.
 また、「クーポン」ボタンを押下する場合には、店舗内商品や費用などに対する割引クーポンなどの各種クーポンを発行するようにしてもよい。 In addition, when the “coupon” button is pressed, various coupons such as discount coupons for in-store products and expenses may be issued.
 以上のように、使用者が気になった場所、店舗、あるいは建物に関する情報表示を実行していくようにアプリケーションプログラムを構成していけばよい。さらなる情報取得操作を実施しない場合は、処理が完了となる(ステップS208)。 As described above, the application program may be configured to display information on a place, a store, or a building that the user is interested in. If no further information acquisition operation is performed, the process is completed (step S208).
 処理が完了すると、操作に関連して起動しているプログラムが閉じられ、操作指示を認識するために起動している距離センサ167などの操作のために起動しているハードウェア部分が休止して、操作は終了する。なお、上述の操作に係わる制御フローチャートは、一例であり、本例の目的が達成できれば他の制御フローであってもよい。 When the processing is completed, the program that is activated in connection with the operation is closed, and the hardware part that is activated for the operation of the distance sensor 167 that is activated to recognize the operation instruction is paused. The operation ends. The control flowchart related to the above-described operation is an example, and other control flows may be used as long as the object of this example can be achieved.
 以上、操作者1の手2を認識した手オブジェクトの画像2R,2Lを用いることによって、簡易で安価な構成からなる情報表示装置10であってもVR技術による表示やAR技術による表示に対する様々な操作入力を容易に行うことができる。 As described above, by using the image 2R, 2L of the hand object that recognizes the hand 2 of the operator 1, even the information display device 10 having a simple and inexpensive configuration can be used for various displays for the VR technology and the AR technology. Operation input can be performed easily.
 それにより、複雑で高度な操作入力を特別な外部装置などを必要とすることなく可能とすることができ、低コストで操作者1の利便性を向上させることができる。 Thereby, complicated and advanced operation input can be performed without requiring a special external device, and the convenience of the operator 1 can be improved at low cost.
 (実施の形態2)
 〈概要〉
 前記実施の形態1では、オブジェクト処理された手画像2R,2Lを用いることによってVR技術による表示やAR技術による表示に対する様々な操作入力を行う例について記載したが、本実施の形態2においては、情報表示装置10を用いた経路案内について説明する。
(Embodiment 2)
<Overview>
In the first embodiment, the example in which various operation inputs are performed on the display using the VR technology and the display using the AR technology by using the hand-processed hand images 2R and 2L has been described. However, in the second embodiment, The route guidance using the information display device 10 will be described.
 なお、情報表示装置10の構成については、前記実施の形態1の図1と同様であり、携帯情報端末100の構成については、図4と同様であるので説明は省略する。 The configuration of the information display device 10 is the same as that of FIG. 1 of the first embodiment, and the configuration of the portable information terminal 100 is the same as that of FIG.
 〈経路案内例〉
 図14は、本実施の形態2による情報表示装置10における経路案内の一例を示す説明図である。
<Example of route guidance>
FIG. 14 is an explanatory diagram showing an example of route guidance in the information display device 10 according to the second embodiment.
 この図14は、経路案内の際に情報表示装置10の表示部121に表示されている画像121cの例を示している。そして、図14の画像121cに示すように、地図アプリケーションプログラムによって表示部121に地図を表示して経路案内を行う。 FIG. 14 shows an example of an image 121c displayed on the display unit 121 of the information display device 10 during route guidance. And as shown in the image 121c of FIG. 14, a map is displayed on the display part 121 by a map application program, and route guidance is performed.
 図14に示す画像121cにおいて、矩形表示は地図上の道路や建物を表しており、画像121cの左上部には、操作を行うための経路メニュー1101が表示されている。画像121cの右下部には、拡大縮小ボタン1102が表示され、該拡大縮小ボタン1102の上方には、方位マーク1110が表示されている。 In the image 121c shown in FIG. 14, the rectangular display represents a road or a building on the map, and a route menu 1101 for operation is displayed on the upper left of the image 121c. An enlargement / reduction button 1102 is displayed at the lower right of the image 121c, and an orientation mark 1110 is displayed above the enlargement / reduction button 1102.
 経路メニュー1101は、出発地設定ボタン1101a、目的地設定ボタン1101bおよび移動手段選択ボタン1101cを有する。出発地設定ボタン1101aは、出発地点を設定するボタンである。目的地設定ボタン1101bは、目的地点を設定するボタンである。 The route menu 1101 includes a departure point setting button 1101a, a destination setting button 1101b, and a moving means selection button 1101c. The departure point setting button 1101a is a button for setting a departure point. The destination setting button 1101b is a button for setting a destination point.
 移動手段選択ボタン1101cは、例えば徒歩か電車かなどの移動手段を設定するボタンである。拡大縮小ボタン1102は、地図画像の縮尺拡大または縮小を行う。方位マーク1110は、地図上の北を示すマークである。 The moving means selection button 1101c is a button for setting moving means such as walking or train. The enlargement / reduction button 1102 enlarges or reduces the scale of the map image. The orientation mark 1110 is a mark indicating north on the map.
 図14(a)の画像121cは、地図上の出発地点を設定する際の画面であり、経路メニュー1101は、使用者による操作開始指示により手画像2Lとともに表示する。手画像2Lは、アウトカメラ124および距離センサ167により距離L内の手を認識して、その動作を画像121cに表示される手画像2Lに反映させる。 The image 121c in FIG. 14A is a screen for setting the departure point on the map, and the route menu 1101 is displayed together with the hand image 2L in response to an operation start instruction by the user. The hand image 2L recognizes a hand within the distance L by the out-camera 124 and the distance sensor 167, and reflects the action on the hand image 2L displayed on the image 121c.
 操作者1が手を動かして経路メニュー内の出発地設定ボタン1101aを手画像2Lにより押下操作するような動作を行うと、出発地設定ボタン1101aは、選択状態となりボタン部分の色が変わる。 When the operator 1 moves his / her hand and performs an operation such as depressing the departure point setting button 1101a in the route menu with the hand image 2L, the departure point setting button 1101a is selected and the color of the button portion changes.
 ここでは、ボタンの色を変えているが、例えばハイライト表示などであってもよいし、あるいは色や輝度を反転させて表示させてもよく、ボタンが押下されたことを他のボタンと区別できればよい。 Here, the color of the button is changed, but for example, it may be displayed in a highlighted manner, or may be displayed with the color or brightness reversed, and the button is pressed is distinguished from other buttons. I can do it.
 続いて、図14(b)に示すように、出発地点に対応する位置まで手を移動させると、表示される手画像2Lも画面上を移動して、この地点を出発点として設定可能であることを示す二重丸マーク1130を表示する。 Subsequently, as shown in FIG. 14B, when the hand is moved to a position corresponding to the departure point, the displayed hand image 2L is also moved on the screen, and this point can be set as the departure point. A double circle mark 1130 indicating this is displayed.
 二重丸マーク1130の地点を出発点として確定させるために手の操作で押下するジェスチャを行うと、画面に表示される手画像2Lも当該地点を押下する動作を行い、その結果、図14(c)に示すように、×マーク1131へと表示が変わる。 When a gesture of pressing by hand is performed to determine the point of the double circle mark 1130 as a starting point, the hand image 2L displayed on the screen also performs an operation of pressing the point, and as a result, FIG. As shown in c), the display changes to the x mark 1131.
 ×マーク1131となり出発点が確定すると、出発地設定ボタン1101aの表示に地点Aを表示する。地点の表示としては、例えば地番表示、自宅などの固有名詞表示、あるいは通称などが設定される。 When the starting point is confirmed with the x mark 1131, the point A is displayed on the display of the starting point setting button 1101 a. As the display of the point, for example, a lot number display, a proper noun display such as home, or a common name is set.
 なお、表示地図の縮尺は、例えば図14(c)の表示画面121c右下側に配置している拡大縮小ボタン1102の+または-記号を手画像2Lにて押下することによって得られる。また、経路メニュー1101や拡大縮小ボタン1102などの選択メニューの表示内容や表示位置は、経路検索アプリケーションプログラムで適宜設定すればよい。 Note that the scale of the display map is obtained by pressing the + or − symbol of the enlargement / reduction button 1102 arranged on the lower right side of the display screen 121c in FIG. 14C, for example, on the hand image 2L. Further, the display contents and display positions of selection menus such as the route menu 1101 and the enlargement / reduction button 1102 may be appropriately set by a route search application program.
 〈経路案内の他の例〉
 図15は、図14の情報表示装置10における経路案内の他の例を示す説明図である。図15(a)~図15(c)は、地図上の目的地の設定の様子を示したものである。
<Other examples of route guidance>
FIG. 15 is an explanatory diagram showing another example of route guidance in the information display device 10 of FIG. FIGS. 15A to 15C show how the destination is set on the map.
 目的地の設定も基本的には、図14の出発地の設定と同じ動作により操作を行えばよく、図15(a)に示すように、目的地の地図を表示して目的地の設定ボタン1101bを押下することにより、設定操作の開始指示が行われる。そして、図15(b)に示すように。目的地の設定を手画像2Lによって行う。その後、図15(c)に示すように、目的地が確定される。 Basically, the destination may be set by the same operation as the setting of the departure point in FIG. 14, and as shown in FIG. 15A, the destination map is displayed and the destination setting button is displayed. By pressing 1101b, a setting operation start instruction is issued. And as shown in FIG. The destination is set by the hand image 2L. Thereafter, as shown in FIG. 15 (c), the destination is determined.
 図16は、図14および図15に図示した経路設定技術によって設定された経路に沿った道案内表示の一例を示す説明図である。 FIG. 16 is an explanatory diagram showing an example of a route guidance display along the route set by the route setting technique shown in FIGS. 14 and 15.
 図16(a)は、情報表示装置10の表示部121に表示される画像121eを示しており、該画像121eでは、建物771~775の間の街路を進んでいく様子を示している。 FIG. 16A shows an image 121e displayed on the display unit 121 of the information display device 10, and the image 121e shows a state of traveling on the street between the buildings 771 to 775.
 この図16(a)では、画像121eに操作用の手画像2Lおよび経路の進退などを設定する操作メニュー750が表示されている例を示している。操作メニュー750が有する進むボタン751を操作者1の手の動きに従う手画像2Lにて押下する操作を行うと、進路方向754の方向へ街路を進んでいく画面が表示される。 FIG. 16A shows an example in which an operation menu 750 for setting the hand image 2L for operation and the advance / retreat of the route is displayed on the image 121e. When an operation of pressing the forward button 751 included in the operation menu 750 with the hand image 2L following the movement of the hand of the operator 1 is performed, a screen for proceeding along the street in the direction of the path 754 is displayed.
 また、操作メニュー750が有する戻るボタン752を押下した際には、前の画面に戻ることになる。操作メニュー750が有するKeyボタン753は、キーボードを表示させるためのボタンであり、手画像2Lにてボタン押下の操作を行うと、Keyボタン753に割り付けられているインターネット上の検索アプリケーションなどが利用可能となる。 Also, when the return button 752 of the operation menu 750 is pressed, the previous screen is returned. The Key button 753 included in the operation menu 750 is a button for displaying a keyboard. When a button is pressed on the hand image 2L, a search application on the Internet assigned to the Key button 753 can be used. It becomes.
 図16(a)に示す矢印表示754は、設定された経路の進む方向を示している。上記説明では、手画像2Lは左手の画像となっているが、右手を認識して右手の手画像による操作を行ってもよい。あるいは両手を認識して両手の手画像を表示して、どちらかの手で操作を行うことでも勿論よい。 The arrow display 754 shown in FIG. 16A indicates the direction of travel of the set route. In the above description, the hand image 2L is an image of the left hand, but the right hand may be recognized and an operation using the right hand hand image may be performed. Alternatively, it is of course possible to recognize both hands, display a hand image of both hands, and operate with either hand.
 以降の説明においても、手オブジェクト画像は、左右どちらの手であっても構わないが、説明上の都合により左手画像2Lをもって行うものとする。 In the following description, the hand object image may be either the left or right hand, but is assumed to be performed with the left hand image 2L for convenience of explanation.
 図16(b)は、目的地までの経路を進む途中で気になる店舗などがあった場合の情報表示の様子を示した図である。例えば、図16(b)において、経路途中の画面内に存する店舗772が気になった場合には、手画像2Lにて店舗の建物オブジェクト772を押下する操作を行う。これにより、建物オブジェクト772が選択され、選択されたことを示すように建物全体の色が変わる。 FIG. 16B is a diagram showing a state of information display when there is a store or the like that is anxious along the route to the destination. For example, in FIG. 16B, when the store 772 existing in the screen halfway along the route is anxious, an operation of pressing the building object 772 of the store on the hand image 2L is performed. This selects the building object 772 and changes the color of the entire building to indicate that it has been selected.
 続いて、情報ウィンドウ755が表示される。この情報ウィンドウ755は、店舗に関する情報を表示する。店舗に関する情報は、例えば所在地、店名、および店舗情報を示すURL(Uniform Resource Locator)などの情報である。 Subsequently, an information window 755 is displayed. This information window 755 displays information about the store. The information regarding the store is, for example, information such as a location, a store name, and a URL (Uniform Resource Locator) indicating the store information.
 ここで、手画像2LによってURL部分のアドレスをクリックする操作を行うと、例えばインタネットブラウザアプリケーションが起動されて、店舗のインターネット情報が表示される。 Here, when an operation of clicking on the address of the URL portion with the hand image 2L is performed, for example, an Internet browser application is started and the Internet information of the store is displayed.
 また、お店が発行している割引クーポンがある場合には、クーポン756のオブジェクト画像も表示するようにしてもよい。クーポン756を操作者が必要と思えば、手画像2Lによって掴む操作を行うことでクーポンを獲得することができる。 Further, when there is a discount coupon issued by the store, the object image of the coupon 756 may be displayed. If the operator thinks that the coupon 756 is necessary, the coupon can be acquired by performing an operation of grasping with the hand image 2L.
 獲得したクーポン756は、例えば携帯情報端末100の図6のストレージ部110に格納され、実際に店舗772へ行った際に提示して使用することができる。あるいは、インターネット経由による商品購入も可能である。 The acquired coupon 756 is stored in the storage unit 110 of FIG. 6 of the portable information terminal 100, for example, and can be presented and used when actually going to the store 772. Alternatively, it is possible to purchase products via the Internet.
 以上により、操作者1の手を認識した手オブジェクト画像2R,2Lに用いることにより、簡単な操作によって経路案内を行うことができる。それによっても、操作者1の利便性向上させることができる。 As described above, by using the hand object images 2R and 2L in which the hand of the operator 1 is recognized, route guidance can be performed by a simple operation. Also by this, the convenience of the operator 1 can be improved.
 (実施の形態3)
 〈情報表示装置10の概観例〉
 図17は、本実施の形態3による情報表示装置10の概観の一例を示す説明図である。
(Embodiment 3)
<Example of Overview of Information Display Device 10>
FIG. 17 is an explanatory diagram showing an example of an overview of the information display device 10 according to the third embodiment.
 図17に示す情報表示装置10は、携帯情報端末100の構成が前記実施の形態1の図1と異なっている。具体的には、携帯情報端末100が有するアウトカメラ124に加えて新たにアウトカメラ125が設けられ、図1の距離センサ167が省かれている。 17 is different from FIG. 1 of the first embodiment in the configuration of the portable information terminal 100. The information display device 10 shown in FIG. Specifically, an out camera 125 is newly provided in addition to the out camera 124 included in the portable information terminal 100, and the distance sensor 167 in FIG. 1 is omitted.
 第2の撮像部であるアウトカメラ125は、図17の携帯情報端末100の背面の左上部に設けられている。アウトカメラ124とアウトカメラ125との距離は、図示するように水平方向にある間隔D1が空くように設けられている。 The out camera 125, which is the second imaging unit, is provided at the upper left of the back surface of the portable information terminal 100 in FIG. The distance between the out camera 124 and the out camera 125 is set such that a space D1 in the horizontal direction is spaced as shown in the figure.
 また、筐体30の正面側には、新たに設けられたアウトカメラ125が露呈する窓14が設けられている。勿論、筐体30の背面全体に窓を設けてもよいし、アウトカメラ124,125が露呈し、かつ携帯情報端末100の部分を保持できる構成できればよい。 Also, on the front side of the housing 30, a window 14 through which a newly provided out camera 125 is exposed is provided. Needless to say, a window may be provided on the entire back surface of the housing 30 as long as the out- cameras 124 and 125 are exposed and the portable information terminal 100 can be held.
 図17に示すように。水平方向に間隔D1を有する2つのアウトカメラ124,125を用いて操作者1の手2を撮像することにより、一般的な三角測量の技術によって手2までの鉛直距離Z1を算出することができる。 As shown in FIG. By imaging the hand 2 of the operator 1 using the two out- cameras 124 and 125 having a distance D1 in the horizontal direction, the vertical distance Z1 to the hand 2 can be calculated by a general triangulation technique. .
 〈携帯情報端末の構成例〉
 図18は、図17の情報表示装置10が有する携帯情報端末100における構成の一例を示す説明図である。
<Configuration example of portable information terminal>
FIG. 18 is an explanatory diagram showing an example of the configuration of the portable information terminal 100 included in the information display device 10 of FIG.
 図18の携帯情報端末100が前記実施の形態1の図4の携帯情報端末100と異なるところは、既に述べたとおり、図4の距離センサ167が省かれた点およびアウトカメラ125が新たに設けられた点である。その他の構成については、図4と同様であるので説明は省略する。 The portable information terminal 100 of FIG. 18 differs from the portable information terminal 100 of FIG. 4 of the first embodiment in that the distance sensor 167 of FIG. 4 is omitted and an out camera 125 is newly provided as already described. This is the point. Other configurations are the same as those in FIG.
 以上により、距離センサ167を不要としながら手画像2L,2Rのオブジェクト処理や該画像2L,2Rによる操作などを行うことができる。 As described above, the object processing of the hand images 2L and 2R, the operation using the images 2L and 2R, and the like can be performed without using the distance sensor 167.
 〈情報表示装置の他の概観例〉
 図19は、図17の情報表示装置10の概観の他の例を示す説明図である。この図19では、操作者の指紋を用いて情報表示装置10の操作が開始される例を示している。
<Other examples of information display devices>
FIG. 19 is an explanatory diagram showing another example of the appearance of the information display device 10 of FIG. FIG. 19 shows an example in which the operation of the information display device 10 is started using the operator's fingerprint.
 図19の情報表示装置10は、携帯情報端末100の背面に指紋センサ168が設けられた構成となっており、振動や衝撃に代えて、該指紋センサ168によって操作が開始される。 19 has a configuration in which a fingerprint sensor 168 is provided on the back surface of the portable information terminal 100, and an operation is started by the fingerprint sensor 168 instead of vibration or impact.
 〈携帯情報端末の構成例〉
 図20は、図19の情報表示装置10が有する携帯情報端末100における構成の一例を示す説明図である。
<Configuration example of portable information terminal>
FIG. 20 is an explanatory diagram showing an example of the configuration of the portable information terminal 100 included in the information display device 10 of FIG.
 この図20の携帯情報端末100が、図4の携帯情報端末100と異なるところは、上述したように指紋を認識する指紋センサ168が新たに設けられた点である。この指紋センサ168に操作者1の指の指紋を読み込ませ、予め登録されている操作者1の指紋との認証を行う。 20 differs from the portable information terminal 100 of FIG. 4 in that a fingerprint sensor 168 for recognizing a fingerprint is newly provided as described above. The fingerprint sensor 168 reads the fingerprint of the finger of the operator 1 and authenticates with the fingerprint of the operator 1 registered in advance.
 そして、指紋センサ168が読み込んだ指紋と予め登録されている指紋とが一致した際には、情報表示装置10に対する操作の開始が指示されることになる。 When the fingerprint read by the fingerprint sensor 168 matches a pre-registered fingerprint, an instruction to start the operation on the information display device 10 is given.
 操作開始指示が行われた後の動作に関しては、前記実施の形態1,2と同様に操作を行うことができる。また、操作終了の際、前記実施の形態1では、操作画面中での終了ボタン押下などによって操作終了を指示しているが、図19の情報表示装置10では、再度、指紋センサ168にタッチすることによって終了指示としてもよい。 The operation after the operation start instruction is performed can be performed in the same manner as in the first and second embodiments. At the end of the operation, in the first embodiment, the end of the operation is instructed by pressing the end button on the operation screen. However, in the information display device 10 in FIG. 19, the fingerprint sensor 168 is touched again. It is good also as an end instruction.
 以上により、情報表示装置10の操作開始あるいは操作終了の指示をより簡単に行うことができる。また、予め登録された指紋と一致した場合にのみ操作開始が指示されるので、セキュリティを向上させることができる。 As described above, an instruction to start or end the operation of the information display device 10 can be performed more easily. In addition, since the operation start is instructed only when the fingerprint matches the pre-registered fingerprint, the security can be improved.
 (実施の形態4)
 〈情報表示装置の操作処理例〉
 本実施の形態4では、実空間上にて操作を行う場合について説明する。
(Embodiment 4)
<Operation example of information display device>
In the fourth embodiment, a case where an operation is performed in real space will be described.
 図21は、本実施の形態4による情報表示装置10における操作の一例を示す説明図である。また、図22は、図21に続く説明図であり、図23は、図22に続く説明図である。これら図21~図23は、実空間である部屋の中の模様替えをAR技術を用いて行う例を示している。 FIG. 21 is an explanatory diagram showing an example of an operation in the information display device 10 according to the fourth embodiment. 22 is an explanatory diagram following FIG. 21, and FIG. 23 is an explanatory diagram following FIG. FIG. 21 to FIG. 23 show examples in which the pattern change in the room which is a real space is performed using the AR technology.
 図24は、図21~図23に示す操作例における操作制御処理の一例を示すフローチャートである。 FIG. 24 is a flowchart showing an example of the operation control process in the operation examples shown in FIGS.
 以下、図21~図23に示した情報表示装置10に対する操作の様子を図24の制御フローチャートを用いて説明する。 Hereinafter, the operation of the information display apparatus 10 shown in FIGS. 21 to 23 will be described with reference to the control flowchart of FIG.
 図24において用いられる情報表示装置10は、前記実施の形態1の図1の情報表示装置10と同様であり、携帯情報端末100は、前記実施の形態1の図4に示す携帯情報端末100と同様であるものとする。なお、携帯情報端末100は、図18または図20に示す携帯情報端末100であってもよい。また、操作開始の合図についても同様である。 The information display device 10 used in FIG. 24 is the same as the information display device 10 of FIG. 1 of the first embodiment, and the portable information terminal 100 is the same as the portable information terminal 100 shown in FIG. 4 of the first embodiment. It shall be the same. Note that the portable information terminal 100 may be the portable information terminal 100 shown in FIG. The same applies to the operation start signal.
 図21(a)は、情報表示装置10に対する操作を開始する前の部屋の様子が表示された画像121fを示している。この画像121fは、図示するように、壁1701、床1702、テーブル1703、および窓1704が存在しており、図4の携帯情報端末100のアウトカメラ124にて撮像された画像がそのまま表示部121に表示されている状態である。 FIG. 21A shows an image 121f in which the state of the room before the operation on the information display device 10 is started is displayed. As shown in the figure, the image 121f includes a wall 1701, a floor 1702, a table 1703, and a window 1704. The image captured by the out camera 124 of the portable information terminal 100 in FIG. Is displayed.
 図21(a)に示す画像121fにおいて、情報表示装置10に対して操作者1が振動や軽くショックを与えるなどの所定の操作を行うことにより、図22の制御フローチャートが開始する。 In the image 121f shown in FIG. 21 (a), when the operator 1 performs a predetermined operation such as vibration or light shock on the information display device 10, the control flowchart of FIG. 22 starts.
 操作が開始すると、携帯情報端末100の距離センサ167が動作を開始し、アウトカメラ124の被写体までの距離の測定を行う(ステップS301)。そして、アウトカメラ124が操作者1の手2を撮像すると、距離センサ167からの距離情報の取得および撮影した画像の認識処理を行い、操作者1の手2であるということの認識処理を行う(ステップS302)。 When the operation starts, the distance sensor 167 of the portable information terminal 100 starts operating, and measures the distance to the subject of the out-camera 124 (step S301). When the out-camera 124 images the hand 2 of the operator 1, the distance information from the distance sensor 167 is acquired and the captured image is recognized, and the recognition process of the hand 2 of the operator 1 is performed. (Step S302).
 操作者1が手2rLによって予め設定された所定の動作を行うと(ステップS303)、図21(b)に示す壁装飾メニュー画像1705が実空間の画像上に合成表示される(ステップS304)。 When the operator 1 performs a predetermined operation set in advance by the hand 2rL (step S303), the wall decoration menu image 1705 shown in FIG. 21B is displayed in a composite manner on the real space image (step S304).
 ここで、ステップS303の処理のおける所定の動作は、例えば壁を叩く、触る、両手あるいは片手をかざす、指し示すなどの動作である。この動作は、例えば手2rLを画像認識できる位置にて所定の距離内に手を持ってくるようにしてもよい。 Here, the predetermined operation in the process of step S303 is, for example, an operation of hitting or touching a wall, holding both hands or one hand, or pointing. In this operation, for example, the hand may be brought within a predetermined distance at a position where the hand 2rL can be recognized.
 ここで、例えば壁1701に絵画を飾りたいと操作者が考えている場合には、図21(b)の壁装飾メニュー1705の中の「絵画」と言う項目を手2rRで選択する動作を行う。 Here, for example, when the operator wants to decorate a painting on the wall 1701, an operation of selecting the item “painting” in the wall decoration menu 1705 of FIG. 21B with the hand 2rR is performed. .
 これにより、図22(a)に示すように、メニュー画像1901が表示される。このメニュー画像1901は、どの様な絵画を飾るかを選択させるメニューである。そして、手2rLにて「現代アート」と言う項目をメニュー画像1901の中から選択すると、図22(b)に示す状態に遷移する(ステップS305)。 Thereby, a menu image 1901 is displayed as shown in FIG. This menu image 1901 is a menu for selecting what kind of painting to decorate. When the item “contemporary art” is selected from the menu image 1901 with the hand 2rL, the state transitions to the state shown in FIG. 22B (step S305).
 続いて、図22(b)に示す画面121fでは、前画面である図22(a)にて選択した「現代アート」の項目に該当する一連の絵画画像のカタログ1910を表示して操作者1に選択を促す(ステップS306)。 Subsequently, on the screen 121f shown in FIG. 22B, a catalog 1910 of a series of painting images corresponding to the item “contemporary art” selected in FIG. Prompts selection (step S306).
 ここで、カタログ1910のデータについては、予めストレージ部110に格納するようにしてもよいし、あるいは通信処理部150によりインターネットを通じて取得するようにしてもよい。 Here, the data of the catalog 1910 may be stored in the storage unit 110 in advance, or may be acquired by the communication processing unit 150 through the Internet.
 この際に、絵画を飾る場所の情報として方位盤1920を表示してもよい。方位盤1920は、絵画を飾る壁のほうを向くことでの携帯情報端末100に備わるジャイロセンサ162、地磁気センサ163、および加速度センサ164などのセンサ類により情報表示装置10のアウトカメラ124が向いている方角・方位、および使用者の目線の高さからの仰角を表示することができる。この補助情報により装飾位置として適切かどうかの判断を操作者に提供することもできる。 At this time, the orientation board 1920 may be displayed as information on a place to display the painting. The orientation board 1920 is directed toward the out camera 124 of the information display device 10 by sensors such as the gyro sensor 162, the geomagnetic sensor 163, and the acceleration sensor 164 provided in the portable information terminal 100 by facing the wall that decorates the painting. It is possible to display the direction and azimuth, and the elevation angle from the height of the user's line of sight. This auxiliary information can provide the operator with a judgment as to whether or not the decoration position is appropriate.
 図22(b)においては、方位表示1922が北西方向の310度を示し、仰角表示1921が携帯情報端末100のアウトカメラ124の光軸から14度であることを示している。 22B, the azimuth display 1922 indicates 310 degrees in the northwest direction, and the elevation angle display 1921 indicates 14 degrees from the optical axis of the out-camera 124 of the portable information terminal 100.
 さらに、操作者1がカタログ1910に掲載される絵画画像の中から絵画画像1911を手2rLにて選択する操作を行うと、図23(a)に遷移して、実寸大の絵画画像1911を壁に表示する。 Furthermore, when the operator 1 performs an operation of selecting the painting image 1911 from the painting images published in the catalog 1910 with the hand 2rL, the screen transitions to FIG. To display.
 
 この図23(a)に表示される絵画画像1911の位置を調整したい場合には、位置調整ボタン2002~2004のいずれかを手で押下する動作を行うことにより、絵画画像1911を上下左右方向にそれぞれ動かすことができる。また、絵画画像1911それ自体を指示する、あるいは押下することによって、絵画画像1911に関する情報2005を表示することもできる。

When it is desired to adjust the position of the painting image 1911 displayed in FIG. 23A, an operation of pressing one of the position adjustment buttons 2002 to 2004 by hand is performed to move the painting image 1911 vertically and horizontally. Each can be moved. In addition, information 2005 regarding the painting image 1911 can be displayed by instructing or pressing the painting image 1911 itself.
 以上の操作によって、操作者1が満足できれば選択内容の決定処理を実行する(ステップS308)。この際に、決定を指示する方法としては、例えば操作者1の手2rLによってOKサインを出す、あるいは決定のための操作ボタンを表示して押下する動作を行う、または画像表示のまま所定時間を経過するなど、どのような技術を用いてもよい。 If the operator 1 is satisfied by the above operation, the selection content determination process is executed (step S308). At this time, as a method for instructing the determination, for example, an OK sign is issued by the hand 2rL of the operator 1, or an operation button for determining is displayed and pressed, or a predetermined time is left while the image is displayed. Any technique may be used such as elapse.
 以上により決定処理が行われると、図23(b)に示す画像121fに遷移して、メニュー表示画像1705を表示する。このメニュー表示画像1705の中で「終了」項目を手2rLにて選択する操作を行うことによって一連の操作が終了する(ステップS309)。 When the determination process is performed as described above, the screen transitions to an image 121f shown in FIG. 23B, and a menu display image 1705 is displayed. A series of operations is completed by performing an operation of selecting the “end” item with the hand 2rL in the menu display image 1705 (step S309).
 これにより、動作している距離センサ167や操作のための制御プログラムなどのアプリケーションソフトを終了する(ステップS310)。 This terminates the application software such as the operating distance sensor 167 and the control program for operation (step S310).
 以上によっても、簡単な操作により部屋の模様替えイメージなどを取得することが可能となり、操作者1の利便性を向上させることができる。 As described above, it is possible to acquire a redesign image of the room by a simple operation, and the convenience of the operator 1 can be improved.
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。 As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the present invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 In addition, this invention is not limited to the above-mentioned Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
 また、上記の各構成は、それらの一部または全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, each of the above-described configurations may be configured so that a part or all of them are configured by hardware or realized by executing a program by a processor. Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
10 情報表示装置
11 拡大レンズ
12 隔壁
13 窓
14 窓
20 スリット部
30 筐体
100 携帯情報端末
101 主制御部
102 システムバス
103a 基本動作プログラム
103b プログラム
104a 基本動作実行部
104b 情報表示実行部
104c 位置/方位取得実行部
104d 操作実行部
104e 一時記憶領域
110 ストレージ部
110a その他の プログラム
110b 情報表示プログラム
110c 各種情報/データ記憶領域
120 画像処理部
121 表示部
122 画像信号処理部
123 インカメラ
124 アウトカメラ
125 アウトカメラ
130 音声処理部
131 イヤースピーカ
132 音声信号処理部
133 マイク
140 操作部
150 通信処理部
151 通信部
151 LAN通信部
152 移動体電話網通信部
153 近接無線通信部
160 センサ部
161 GPS受信部
162 ジャイロセンサ
163 地磁気センサ
164 加速度センサ
165 照度センサ
165 加速度センサ
166 近接センサ
167 距離センサ
168 指紋センサ
170 拡張インタフェース部
180 スピーカ
182 ホームキー
183 電源キー
184 スピーカ
DESCRIPTION OF SYMBOLS 10 Information display apparatus 11 Magnifying lens 12 Bulkhead 13 Window 14 Window 20 Slit part 30 Case 100 Portable information terminal 101 Main control part 102 System bus 103a Basic operation program 103b Program 104a Basic operation execution part 104b Information display execution part 104c Position / azimuth Acquisition execution unit 104d Operation execution unit 104e Temporary storage area 110 Storage unit 110a Other program 110b Information display program 110c Various information / data storage area 120 Image processing unit 121 Display unit 122 Image signal processing unit 123 In camera 124 Out camera 125 Out camera 130 Audio processing unit 131 Ear speaker 132 Audio signal processing unit 133 Microphone 140 Operation unit 150 Communication processing unit 151 Communication unit 151 LAN communication unit 152 Mobile telephone network communication unit 153 No proximity The communication unit 160 the sensor unit 161 GPS receiver 162 gyro sensor 163 geomagnetic sensor 164 acceleration sensor 165 illumination sensor 165 acceleration sensor 166 proximity sensor 167 a distance sensor 168 fingerprint sensor 170 extension interface unit 180 speaker 182 home key 183 power key 184 speaker

Claims (12)

  1.  仮想空間または拡張現実空間の画像を表示する携帯情報端末と、
     前記携帯情報端末を保持する筐体と、
     を有し、
     前記携帯情報端末は、
     予め設定された開始条件を検出する検出部と、
     前記検出部が前記開始条件を検出した際に映像の撮影を開始する第1の撮像部と、
     前記第1の撮像部が撮影する映像から画像合成用被写体を認識し、認識した前記画像合成用被写体または前記画像合成用被写体をオブジェクト処理した被写体画像を前記画像に表示する画像認識部と、
     前記画像合成用被写体または前記被写体画像による操作指示を判定し、判定した前記操作指示に対応する処理を実行する操作実行部と、
     を有する、情報表示装置。
    A portable information terminal that displays an image of virtual space or augmented reality space;
    A housing for holding the portable information terminal;
    Have
    The portable information terminal
    A detection unit for detecting a preset start condition;
    A first imaging unit that starts capturing an image when the detection unit detects the start condition;
    An image recognizing unit for recognizing a subject for image synthesis from video captured by the first imaging unit, and displaying a subject image obtained by subjecting the recognized subject for image synthesis or the subject for image synthesis to the image;
    An operation execution unit that determines an operation instruction based on the image composition subject or the subject image, and executes processing corresponding to the determined operation instruction;
    An information display device.
  2.  請求項1記載の情報表示装置において、
     前記携帯情報端末は、
     前記第1の撮像部から前記画像合成用被写体までの距離を測定する距離測定部を有し、
     前記画像認識部は、前記距離測定部による測定結果に基づいて、予め設定された距離内にある被写体を前記画像合成用被写体として認識する、情報表示装置。
    The information display device according to claim 1,
    The portable information terminal
    A distance measuring unit that measures a distance from the first imaging unit to the image composition subject;
    The image recognition unit is an information display device that recognizes a subject within a preset distance as the subject for image synthesis based on a measurement result by the distance measurement unit.
  3.  請求項1記載の情報表示装置において、
     前記検出部が前記開始条件を検出した際に起動して映像を撮影する第2の撮像部を有し、
     前記画像認識部は、前記第1の撮像部および前記第2の撮像部によってそれぞれ撮影された映像に基づいて、前記画像合成用被写体までの距離を算出し、予め設定された距離内にある被写体を前記画像合成用被写体として認識する、情報表示装置。
    The information display device according to claim 1,
    A second imaging unit that activates and captures an image when the detection unit detects the start condition;
    The image recognizing unit calculates a distance to the image composition subject based on the images captured by the first imaging unit and the second imaging unit, and subjects within a preset distance Is displayed as the image composition subject.
  4.  請求項1記載の情報表示装置において、
     前記検出部は、加速度センサであり、
     前記第1の撮像部は、前記加速度センサが予め設定された振動パターンを検出した際に起動する、情報表示装置。
    The information display device according to claim 1,
    The detection unit is an acceleration sensor,
    The first imaging unit is an information display device that is activated when the acceleration sensor detects a preset vibration pattern.
  5.  請求項1記載の情報表示装置において、
     前記検出部は、指紋センサであり、
     前記第1の撮像部は、前記指紋センサが取得した指紋が予め設定された指紋と一致した際に起動する、情報表示装置。
    The information display device according to claim 1,
    The detection unit is a fingerprint sensor;
    The first imaging unit is an information display device that is activated when a fingerprint acquired by the fingerprint sensor matches a preset fingerprint.
  6.  請求項1記載の情報表示装置において、
     前記操作実行部は、
     前記画像認識部が前記画像合成用被写体または前記画像合成用被写体をオブジェクト処理した被写体画像を前記画像に表示した際に、前記画像に操作指示入力画像を表示し、
     前記操作指示入力画像は、前記画像合成用被写体または前記被写体画像による前記操作指示を入力する画像である、情報表示装置。
    The information display device according to claim 1,
    The operation execution unit
    When the image recognition unit displays the image composition subject or the subject image obtained by subjecting the image composition subject to object processing, an operation instruction input image is displayed on the image;
    The information display device, wherein the operation instruction input image is an image for inputting the operation instruction using the image composition subject or the subject image.
  7.  請求項1記載の情報表示装置において、
     前記携帯情報端末は、スマートフォンである、情報表示装置。
    The information display device according to claim 1,
    The portable information terminal is an information display device that is a smartphone.
  8.  仮想空間や拡張現実空間の画像を表示する情報表示装置であって、
     撮像部と、
     前記撮像部が撮像する被写体までの距離を測定する距離測定部と、
     前記撮像部の撮像した画像と前記距離測定部の測定結果とに基づいて、前記被写体の認識処理を行う画像認識部と、
     を有し、
     前記画像認識部は、予め設定された距離内にある前記被写体の手の画像を認識した際に、前記情報表示装置を操作する操作入力命令の入力待ち状態とする、情報表示装置。
    An information display device that displays an image of a virtual space or augmented reality space,
    An imaging unit;
    A distance measuring unit for measuring a distance to a subject imaged by the imaging unit;
    An image recognition unit that performs recognition processing of the subject based on an image captured by the imaging unit and a measurement result of the distance measurement unit;
    Have
    The information display device, wherein the image recognition unit waits for an operation input command to operate the information display device when an image of the hand of the subject within a predetermined distance is recognized.
  9.  仮想空間または拡張現実空間の画像を表示する携帯情報端末に、前記携帯情報端末を起動させて操作を行う起動操作処理を実行させるプログラムであって、
     前記起動操作処理は、
     予め設定された開始条件を検出するステップと、
     前記開始条件を検出した際に映像の撮影を開始するステップと、
     撮影された前記映像から画像合成用被写体を認識するステップと、
     認識した前記画像合成用被写体または前記画像合成用被写体をオブジェクト処理した被写体画像を前記画像に表示するステップと、
     前記画像合成用被写体または前記被写体画像による操作指示を判定し、判定した前記操作指示に対応する処理を実行するステップと、
     を有する、プログラム。
    A program for causing a portable information terminal that displays an image of virtual space or augmented reality space to execute an activation operation process for activating the portable information terminal and performing an operation,
    The startup operation process includes:
    Detecting a preset start condition;
    Starting to shoot video when detecting the start condition;
    Recognizing a subject for image composition from the captured video;
    Displaying the recognized image composition subject or the subject image obtained by subjecting the image composition subject to object processing on the image;
    Determining an operation instruction based on the image composition subject or the subject image, and executing a process corresponding to the determined operation instruction;
    Having a program.
  10.  請求項9記載のプログラムにおいて、
     前記映像から撮影された前記画像合成用被写体までの距離を測定するステップを有し、
     前記画像合成用被写体を認識するステップは、前記画像合成用被写体までの距離の測定結果に基づいて、予め設定された距離内にある被写体を前記画像合成用被写体として認識する、プログラム。
    The program according to claim 9, wherein
    Measuring a distance from the image to the image composition subject captured,
    The step of recognizing the image composition subject recognizes a subject within a preset distance as the image composition subject based on a measurement result of the distance to the image composition subject.
  11.  請求項10記載のプログラムにおいて、
     前記距離を測定するステップは、2つの異なる位置から撮影された映像から前記距離を算出する、プログラム。
    The program according to claim 10, wherein
    The step of measuring the distance is a program for calculating the distance from images taken from two different positions.
  12.  請求項9記載のプログラムにおいて、
     前記被写体画像を前記画像に表示した際に、前記画像合成用被写体または前記被写体画像による前記操作指示を入力する操作指示入力画像を前記画像に表示するステップを有する、プログラム。
    The program according to claim 9, wherein
    A program comprising a step of displaying, on the image, an operation instruction input image for inputting the operation instruction using the image composition subject or the subject image when the subject image is displayed on the image.
PCT/JP2016/069949 2016-07-05 2016-07-05 Information display device and program WO2018008096A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/069949 WO2018008096A1 (en) 2016-07-05 2016-07-05 Information display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/069949 WO2018008096A1 (en) 2016-07-05 2016-07-05 Information display device and program

Publications (1)

Publication Number Publication Date
WO2018008096A1 true WO2018008096A1 (en) 2018-01-11

Family

ID=60912647

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/069949 WO2018008096A1 (en) 2016-07-05 2016-07-05 Information display device and program

Country Status (1)

Country Link
WO (1) WO2018008096A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158042A1 (en) * 2019-01-30 2020-08-06 株式会社Nttドコモ Function control device
WO2022038923A1 (en) * 2020-08-21 2022-02-24 株式会社小松製作所 Obstacle reporting system for work machine, and obstacle reporting method for work machine

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012182738A (en) * 2011-03-02 2012-09-20 Riverbell Kk Stereo image pickup apparatus
JP2014229287A (en) * 2013-05-27 2014-12-08 Necカシオモバイルコミュニケーションズ株式会社 Information processing apparatus and processing method therefor, and program
JP2015230496A (en) * 2014-06-03 2015-12-21 シャープ株式会社 Electronic equipment
JP2015232783A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image creating device
JP2016031761A (en) * 2014-07-25 2016-03-07 裕行 池田 Spectacle type terminal
JP5926435B1 (en) * 2015-11-13 2016-05-25 株式会社Cygames Information processing apparatus, information processing method, and program
JP2016115125A (en) * 2014-12-15 2016-06-23 Kddi株式会社 Wearable search system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012182738A (en) * 2011-03-02 2012-09-20 Riverbell Kk Stereo image pickup apparatus
JP2014229287A (en) * 2013-05-27 2014-12-08 Necカシオモバイルコミュニケーションズ株式会社 Information processing apparatus and processing method therefor, and program
JP2015230496A (en) * 2014-06-03 2015-12-21 シャープ株式会社 Electronic equipment
JP2015232783A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image creating device
JP2016031761A (en) * 2014-07-25 2016-03-07 裕行 池田 Spectacle type terminal
JP2016115125A (en) * 2014-12-15 2016-06-23 Kddi株式会社 Wearable search system
JP5926435B1 (en) * 2015-11-13 2016-05-25 株式会社Cygames Information processing apparatus, information processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BOKICHI, SHINKA SURU 'VR' GIJUTSU, I/O, vol. 40, no. 2, 1 February 2015 (2015-02-01), pages 20 - 22 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158042A1 (en) * 2019-01-30 2020-08-06 株式会社Nttドコモ Function control device
JPWO2020158042A1 (en) * 2019-01-30 2021-10-21 株式会社Nttドコモ Function control device
JP7097464B2 (en) 2019-01-30 2022-07-07 株式会社Nttドコモ Function control device
WO2022038923A1 (en) * 2020-08-21 2022-02-24 株式会社小松製作所 Obstacle reporting system for work machine, and obstacle reporting method for work machine

Similar Documents

Publication Publication Date Title
CN105278670B (en) Eyeglasses-type terminal and method of controlling the same
US9563057B2 (en) Eyewear type terminal and control method thereof
EP3163401A1 (en) Mobile terminal and control method thereof
JP5927966B2 (en) Display control apparatus, display control method, and program
WO2012132334A1 (en) Display control device, display control method, and program
JP5398970B2 (en) Mobile communication device and control method
US20120229509A1 (en) System and method for user interaction
JP6348732B2 (en) Information processing system, information processing apparatus, information processing program, and information processing method
JP2006059136A (en) Viewer apparatus and its program
TW201741853A (en) Virtual reality real-time navigation method and system through which a narrator can conveniently make a corresponding narration through a screen to help users to understand more easily
US9756254B2 (en) Mobile terminal and control method thereof
KR20170025413A (en) Mobile terminal and method for controlling the same
JPWO2019069575A1 (en) Information processing equipment, information processing methods and programs
JP6145563B2 (en) Information display device
CN111628925A (en) Song interaction method and device, terminal and storage medium
WO2018008096A1 (en) Information display device and program
KR101662740B1 (en) Apparatus and method for inputting korean based on a motion of users fingers
KR20160035911A (en) Mobile terminal and method for controlling the same
KR20190035373A (en) Virtual movile device implementing system and control method for the same in mixed reality
JP2009015720A (en) Authentication device and authentication method
KR20150141048A (en) Mobile terminal and method of controlling the same
WO2022269887A1 (en) Wearable terminal device, program, and image processing method
TWI607371B (en) Hotspot build process approach
KR20180031238A (en) Mobile terminal and method for controlling the same
KR20170038569A (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16908140

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16908140

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP