JP2008090807A - Compact mobile terminal - Google Patents

Compact mobile terminal Download PDF

Info

Publication number
JP2008090807A
JP2008090807A JP2006302405A JP2006302405A JP2008090807A JP 2008090807 A JP2008090807 A JP 2008090807A JP 2006302405 A JP2006302405 A JP 2006302405A JP 2006302405 A JP2006302405 A JP 2006302405A JP 2008090807 A JP2008090807 A JP 2008090807A
Authority
JP
Japan
Prior art keywords
image
projection
projector
camera
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006302405A
Other languages
Japanese (ja)
Other versions
JP4747232B2 (en
Inventor
Takeshi Kurata
武志 蔵田
Jun Aketo
純 明渡
Saikaku Boku
載赫 朴
Nobuchika Sakata
信親 酒田
Takashi Okuma
隆史 大隈
Masakatsu Korogi
正克 興梠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2006302405A priority Critical patent/JP4747232B2/en
Publication of JP2008090807A publication Critical patent/JP2008090807A/en
Application granted granted Critical
Publication of JP4747232B2 publication Critical patent/JP4747232B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a compact mobile terminal provided with a camera and a projector carried or worn by a user to present projection images by use of projection surfaces different in distance with an intuitive and easy-to-understand operation. <P>SOLUTION: The projector projects a projection image by a light beam group including parallel light beams or light beams having a deep focus depth as one pixel. An image of a real space including the projection image is analyzed based on an image picked up by the camera, to detect positions in the image on a near side projection surface closest to the projector and a deep side projection surface farther than the near side projection image and a three-dimensional positional relationship between the both projection surfaces on the basis of the analysis result and the positional relationship between the camera and the projector. The content of the projection image is controlled depending on the positional relationship between the both projection surfaces and a state of the change thereof, while projecting in-focus images on both the projection surfaces using the projector. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、プロジェクタとカメラを備えた小型携帯端末に関するものであり、更に詳細には、利用者に呈示する画像を投影するプロジェクタおよび投影された画像を入力するカメラを備え、これらからの入出力画像の画像処理を行う小型携帯端末であり、作業空間を動き回りつつ作業をする利用者が当該小型携帯端末を携帯または装着することにより、作業空間中の作業対象や設置物、利用者の持つ物体や体の一部に、複雑な視覚情報を直接投影しながら、作業手順や指示を与えることができ、さらには、利用者の持つ物体や利用者の体の一部の形状、さらにはその奥の作業対象や設置物との間の位置関係を変化させることにより、投影像の一部を選択する指示を与えて、投影像の内容を変更することができる小型携帯端末に関するものである。   The present invention relates to a small portable terminal including a projector and a camera, and more specifically, includes a projector that projects an image to be presented to a user and a camera that inputs the projected image, and inputs and outputs from these. A small mobile terminal that performs image processing of an image, and a user who works while moving around the work space carries or wears the small mobile terminal, so that work objects, installation objects, and objects that the user has in the work space It is possible to give work procedures and instructions while projecting complex visual information directly onto the body part of the body and the body. The present invention relates to a small portable terminal that can change the content of a projected image by giving an instruction to select a part of the projected image by changing the positional relationship between the work object and the installation object. .

熟練労働者不足や安全管理の観点から、作業支援インタフェースの必要性がこれまでにも増して高まっている。移動と作業を伴う業務の従事者を支援するための有望なインタフェースの一つに、視覚センサや視覚ディスプレイを用いて実世界や仮想世界、または遠隔地の人との直感的で円滑な対話を実現するウェアラブルビジュアルインタフェース(携帯・着用型視覚インタフェース)が挙げられる(非特許文献1)。ウェアラブルビジュアルインタフェースにおいては、利用者からシステムへの入力手段とその逆の出力手段のそれぞれの機能が重要や役割を果たす。   From the viewpoint of skilled labor shortage and safety management, the necessity of work support interface is increasing more than ever. One of the promising interfaces to support workers involved in movement and work is intuitive and smooth dialogue with people in the real world, virtual world, or remote areas using visual sensors and visual displays. There is a wearable visual interface (portable / wearable visual interface) to be realized (Non-Patent Document 1). In the wearable visual interface, the functions of the input means from the user to the system and the reverse output means play important roles.

発明者らは以前、カメラとレーザポインタを一体化したヘッド部を小型のパン・チルトアクチュエータ上に搭載した着用型入出力インタフェースであるWACL(Wearable Active Camera with Laser−pointer)の小型携帯端末(特許文献1、非特許文献8)を提案した。   The inventors previously used a portable active camera with laser-pointer (WACL), which is a wearable input / output interface in which a head unit in which a camera and a laser pointer are integrated is mounted on a small pan / tilt actuator (patent) Document 1 and Non-Patent Document 8) were proposed.

このWACLの小型携帯端末利用者は、利用者の周辺の作業環境や作業過程の状況を、映像や音声を用いて遠隔地の指示者に送ることができ、また、遠隔地の指示者は、カメラとレーザポインタが一体化されたヘッド部が遠隔地から操作可能となっているため、これを遠隔地から操作し、指示者は利用者の動きにあまり影響されずに観察したい場所を見続けることができ、さらに、指示者は、WACLの利用者に対して、レーザポインタを制御して特定の場所や物体を指し示すことができるものとなっている。   The user of the small mobile terminal of the WACL can send the work environment and the work process surrounding the user to the remote instructor using video and audio, and the remote instructor Since the head unit with integrated camera and laser pointer can be operated from a remote location, it can be operated from a remote location, and the instructor continues to see the location he wants to observe without being affected by the movement of the user. In addition, the instructor can control the laser pointer to point a specific place or object to the user of WACL.

発明者らは、WACLとHMD(Head Mounted Display)とHMC(Head Mounted Camera)からなるヘッドセットとの比較のためのユーザテストを実施したが、その内容を非特許文献2において紹介している。   The inventors conducted a user test for comparison with a headset composed of WACL, HMD (Head Mounted Display), and HMC (Head Mounted Camera), and the contents thereof are introduced in Non-Patent Document 2.

このユーザテストによると、実作業環境における協調作業では、作業は、主として「対象物・場所の特定」、「手順の説明」、「理解の確認」の3段階に分類される。WACLインタフェースは、頭部を拘束せず視野もオープンであり、さらに、レーザスポットによる指示が直接、実空間に提示されるため、作業者に優れた印象を与える一方で、レーザポインタの表現能力の低さから「手順の説明」が複雑な場面においては、作業時間を増加させることが、そのユーザスタディにより判明した。   According to this user test, in the collaborative work in the actual work environment, the work is mainly classified into three stages: “identification of object / location”, “explanation of procedure”, and “confirmation of understanding”. The WACL interface does not constrain the head and the field of view is open. In addition, because the instructions from the laser spot are directly presented in real space, it gives an excellent impression to the operator, while the ability to express the laser pointer. The user study revealed that the work time was increased in a scene where the “procedure explanation” was complicated due to its low height.

なお、WACLユーザに付加的なディスプレイ装置を装着することで、この問題が軽減されるという結果が別のユーザテストにより得られている(非特許文献3)が、作業対象や作業空間を見たり、付加的なディスプレイ装置を見たりするためには、視線移動が必要となるため、作業内容によってはそれが欠点となる場合がある。   In addition, the result that this problem is reduced by attaching an additional display device to a WACL user has been obtained by another user test (Non-Patent Document 3). In order to view additional display devices, it is necessary to move the line of sight, which may be a drawback depending on the work contents.

一方、携帯・装着型か設置型かどうかは別として、文字や図形など、レーザスポットよりも複雑な視覚情報を実物体上に直接投影するインタフェースが近年数多く提案されており、ウェアラブルビジュアルインタフェースに組み込んだり、組み合わせたりすることによって、より直感的で円滑な対話や操作を実現することができるようになっている。   On the other hand, apart from whether it is portable or wearable or installed, many interfaces have been proposed that directly project visual information more complex than a laser spot, such as letters and figures, onto a real object. It is possible to realize more intuitive and smooth dialogue and operation by combining or combining them.

非特許文献4では、設置型のプロジェクタとタッチパネルの四隅に光センサを搭載したハンドヘルド型装置を組み合わせたシステムが提案されている。そのシステムでは、プロジェクタから壁や机に投影される映像の中にハンドヘルド型装置を入れると、その四隅の光センサと映像内の局所的に高周波で変化させた輝度パターンとの組み合わせにより、そのハンドヘルド型装置の3次元空間の中での位置や姿勢を計測することができる。壁や机などへ投影されている映像とハンドヘルド型装置へ投影されている映像の両方を見ながら、ハンドヘルド型装置の位置・姿勢を変更し、またはタッチパネルを操作することにより、マウスやキーボードを用いることなく、直感的に投影像の内容を変更したり、コンピュータを操作したりすることができる。   Non-Patent Document 4 proposes a system in which an installation-type projector and a hand-held device equipped with optical sensors at the four corners of a touch panel are combined. In that system, when a handheld device is inserted into an image projected from a projector onto a wall or desk, the handheld device is combined with the light sensor at its four corners and the brightness pattern changed locally at a high frequency in the image. The position and orientation of the mold apparatus in the three-dimensional space can be measured. Using the mouse or keyboard by changing the position / posture of the handheld device or operating the touch panel while viewing both the image projected on the wall, desk, etc. and the image projected on the handheld device Therefore, the contents of the projected image can be changed intuitively or the computer can be operated.

特許文献2の携帯型端末においては、携帯型端末にプロジェクタと、スクリーン(投影面)までの投影距離を計測する距離測定手段を搭載している。距離測定手段によって投影面までの距離が短い場合には、投影光量を低下させて消費電力を抑えたり、投影レンズの焦点自動調整に距離計測の結果を利用したりすることが可能である。   In the portable terminal of Patent Document 2, a projector and a distance measuring unit that measures a projection distance to a screen (projection surface) are mounted on the portable terminal. When the distance to the projection surface is short by the distance measuring means, it is possible to reduce the amount of projection light to suppress power consumption, or to use the result of distance measurement for automatic focus adjustment of the projection lens.

上述した発明や提案では、プロジェクタとして液晶パネルやDMD(Digital Mirror Device)を用いたライトバルブ式プロジェクタを用いている。例えば、非特許文献5では、頭部に2次元レーザスキャナを用いたレーザプロジェクタを搭載し、投影距離に関わらず鮮明な映像を提示することが可能となっている。ただし、スキャンミラーの性能の制限により、実世界の比較的狭い範囲に直接文字情報を投影するものとなっている。   In the above-described invention and proposal, a light valve projector using a liquid crystal panel or DMD (Digital Mirror Device) is used as the projector. For example, in Non-Patent Document 5, a laser projector using a two-dimensional laser scanner is mounted on the head, and a clear image can be presented regardless of the projection distance. However, due to the limited performance of the scan mirror, character information is projected directly onto a relatively narrow area in the real world.

ライトバルブ式プロジェクタとカメラを組み合わせたシステムを、ここではプロカムシステムと呼ぶこととすると、非特許文献6および非特許文献7は、プロカムシステムと利用者の手とを組み合わせた提案である。非特許文献6では、天井に設置したプロカムシステムのライトバルブ式プロジェクタにより、床に雨の模様を投影する。   If a system combining a light valve projector and a camera is called a procam system here, Non-Patent Document 6 and Non-Patent Document 7 are proposals combining a procam system and a user's hand. In Non-Patent Document 6, a rain pattern is projected on the floor by a light valve projector of a pro cam system installed on the ceiling.

利用者が投影光の届く範囲内で手の平を天井に向けると、カメラで得られた画像を用いて手の平の位置や大きさおよび向きを計算し、その手の平の上に、例えば、近くのお店のセール情報を投影することができる。   When the user points his / her palm to the ceiling within the reach of the projection light, the image obtained by the camera is used to calculate the position, size and orientation of the palm, and on the palm, for example, a nearby shop Sale information can be projected.

一方、非特許文献7では、利用者の肩にプロカムシステムを装着することが提案されている。そのプロカムシステムには、さらに近赤外線投光機が搭載されており、カメラには赤外線フィルタが備わっている。これにより、プロカムシステムの前に利用者が手を差し伸べると、カメラで得られる赤外線画像中の手の領域は、投光機からの赤外線の反射が強く観測されるため、比較的容易に利用者の手の位置を検出し、その手の上に映像を投影することができる。   On the other hand, Non-Patent Document 7 proposes to attach a procam system to the user's shoulder. The ProCam system is further equipped with a near-infrared projector, and the camera is equipped with an infrared filter. As a result, when the user reaches out in front of the ProCam system, the hand area in the infrared image obtained by the camera can be used relatively easily because the infrared reflection from the projector is observed strongly. The position of the person's hand can be detected, and an image can be projected on the hand.

また、非特許文献7のプロカムシステムでは、各指に対応するようにリモコンの操作ボタンのような視覚情報が投影されており、その指を選ぶジェスチャを行うと、その操作ボタンを選択できるといった機能が提案されている。
特開2004−219847号公報 特開2005−292428号公報 蔵田武志, 酒田信親, 葛岡英明, 興梠正克, 大隈隆史, 西村拓一: "遠隔協調作業のためのウェアラブル・タンジブルインタフェース",SICE第69回パターン計測部会研究会, pp.11-18 (2006) Takeshi Kurata, NobuchikaSakata, Masakatsu Kourogi,Hideki Kuzuoka, Mark Billinghurst:"Remote Collaboration using a Shoulder-Worn Active Camera/Laser", InProc. 8th IEEE International Symposium on Wearable Computers (ISWC2004) inArlington, VA, USA, pp.62-69 (2004) Nobuchika Sakata, Takeshi Kurata, and Hideaki Kuzuoka:"Visual Assist with a Laser Pointer and Wearable Display for RemoteCollaboration", In Proc. 2nd international conference on CollaborationTechnologies (CollabTech 2006) in Tsukuba, Japan,pp.66-71 (2006) Lee, J.C.; Hudson, S.E.; Summet, J.W.;Dietz, P.H., "Moveable Interactive Projected Displays Using ProjectorBased Tracking", ACM Symposium on User Interface Software and Technology(UIST), ISBN: 1-59593-271-2, pp. 63-72, October 2005 安藤英由樹, 雨宮智浩, 前田太郎, "ARにおける注釈表示のためのウェアラブル・スキャニング・レーザー・プロジェクター",日本バーチャルリアリティ学会論文誌, Vol. 10, No. 2, pp. 191-200, 2005. 石井陽子・小林 稔・中山 彰・細田真道、情報との出会いを演出する手の平表示インタフェース、信学技報, vol. 105, no. 256,MVE2005-42, pp. 89-93, 2005年9月. 山本豪志朗,佐藤宏介:"掌への光投影を利用した身体インタフェース" 平成17年度情報処理学会関西支部大会ビジュアルインフォメーション研究会,A-05,2005年10月 Nobuchika Sakata, Takeshi Kurata, Takekazu Kato, Masakatsu Kourogi, and Hideaki Kuzuoka: "WACL: Supporting Telecommunications UsingWearable Active Camera with Laser Pointer", In Proc. 7th IEEEInternational Symposium on Wearable Computers (ISWC2003) in NY, USA, pp.53-56(2003)
Further, in the professional cam system of Non-Patent Document 7, visual information such as an operation button of a remote control is projected so as to correspond to each finger, and when the gesture for selecting the finger is performed, the operation button can be selected. A function is proposed.
Japanese Patent Laid-Open No. 2004-211984 JP 2005-292428 A Takeshi Kurata, Nobuchika Sakata, Hideaki Kuzuoka, Masakatsu Kojo, Takashi Otsuki, Takuichi Nishimura: "Wearable and Tangible Interface for Remote Collaborative Work", SICE 69th Pattern Measurement Subcommittee Meeting, pp.11-18 (2006 ) Takeshi Kurata, NobuchikaSakata, Masakatsu Kourogi, Hideki Kuzuoka, Mark Billinghurst: "Remote Collaboration using a Shoulder-Worn Active Camera / Laser", InProc. 8th IEEE International Symposium on Wearable Computers (ISWC2004) inArlington, VA, USA, pp.62- 69 (2004) Nobuchika Sakata, Takeshi Kurata, and Hideaki Kuzuoka: "Visual Assist with a Laser Pointer and Wearable Display for RemoteCollaboration", In Proc. 2nd international conference on Collaboration Technologies (CollabTech 2006) in Tsukuba, Japan, pp. 66-71 (2006) Lee, JC; Hudson, SE; Summet, JW; Dietz, PH, "Moveable Interactive Projected Displays Using Projector Based Tracking", ACM Symposium on User Interface Software and Technology (UIST), ISBN: 1-59593-271-2, pp. 63-72, October 2005 Hideki Ando, Tomohiro Amemiya, Taro Maeda, "Wearable Scanning Laser Projector for Annotation Display in AR", Transactions of the Virtual Reality Society of Japan, Vol. 10, No. 2, pp. 191-200, 2005. Yoko Ishii, Satoshi Kobayashi, Akira Nakayama, and Michi Hosoda, Hand Display Interface for Encountering Information, IEICE Technical Report, vol. 105, no. 256, MVE2005-42, pp. 89-93, September 2005 . Goro Yamamoto, Kosuke Sato: "Body interface using light projection on the palm" 2005 Information Processing Society of Japan Kansai Branch Visual Information Study Group, A-05, October 2005 Nobuchika Sakata, Takeshi Kurata, Takekazu Kato, Masakatsu Kourogi, and Hideaki Kuzuoka: "WACL: Supporting Telecommunications Using Wearable Active Camera with Laser Pointer", In Proc. 7th IEEE International Symposium on Wearable Computers (ISWC2003) in NY, USA, pp.53- 56 (2003)

上述したように、これまでに様々なプロジェクタシステム、プロカムシステムが提案されているが、これらのシステムを利用する場合の問題点として、作業空間を動き回りつつ作業をする作業者が携帯または装着して利用するプロジェクタとカメラを備えた小型携帯端末に適用しようとした場合には、次のような更に解決されるべき課題が存在する。   As described above, various projector systems and pro-cam systems have been proposed so far, but as a problem when using these systems, an operator who works while moving around the work space carries or wears it. When it is intended to be applied to a small portable terminal equipped with a projector and a camera to be used, there are the following problems to be solved.

まず、特許文献1の小型携帯端末(非特許文献8のWACL)の場合は、前述したように、利用者に提示する情報の出力装置がレーザスポットのみであり、このため、表現能力に乏しく、利用者に対して十分な情報を提供できない。   First, in the case of the small portable terminal of Patent Document 1 (WACL of Non-Patent Document 8), as described above, the information output device to be presented to the user is only a laser spot, and therefore the expression capability is poor. Not enough information can be provided to users.

非特許文献4の場合に、例えば、携帯型プロジェクタとタッチパネルの四隅に光センサを搭載したハンドヘルド型装置を組み合わせて、同様の機能を実現することを考えると、この場合には、ハンドヘルド側装置の四隅に光センサを搭載する必要があり、利用者の周りにある物体や利用者の手などを用いたインタラクションは行うことができない。   In the case of Non-Patent Document 4, for example, in consideration of realizing a similar function by combining a portable projector and a handheld device having optical sensors mounted on the four corners of the touch panel, in this case, the handheld device It is necessary to mount optical sensors at the four corners, and interaction using objects around the user or the user's hand cannot be performed.

また、非特許文献4では、ライトバルブ式プロジェクタを用いているが、その原理上、焦点深度がある範囲に限られるため、壁や机などの投影面とハンドヘルド装置との間の距離よりも相当程度離れた位置にプロジェクタを設置し投影距離を長くするか、壁や机などの投影面とハンドヘルド装置との間の距離をあまり長くしないなど利用上の制約が出てくる。これらの制約を満たさないと、投影面上の映像とハンドヘルド装置上の映像の双方にピントの合った映像を提供できなくなる。   In Non-Patent Document 4, a light valve projector is used. However, because of its principle, the depth of focus is limited to a certain range, and therefore, it corresponds to a distance between a projection surface such as a wall or a desk and a handheld device. There are restrictions in use such as installing a projector at a certain distance and increasing the projection distance, or not increasing the distance between the projection surface such as a wall or a desk and the handheld device too much. If these restrictions are not satisfied, it is impossible to provide a focused image for both the image on the projection surface and the image on the handheld device.

これらの制約を、小型携帯端末に置き換えて考えると、プロジェクタの設置位置は利用者の体の頭部または肩部などいずれかの部位上でなければならないため、投影距離を長くとることは非現実的であり、また、投影面とハンドヘルド装置との間の距離をあまり長くできないとなると、利用可能な状況がかなり限定されてしまうことになる。また、非特許文献4で述べられているシステムは設置型であるため、ハンドヘルド装置以外の投影面(壁や机)とプロジェクタとの位置関係はあらかじめ得られていることを仮定している。この仮定は小型携帯端末にとっては非現実的である。   Considering these restrictions in terms of small mobile terminals, it is impractical to take a long projection distance because the projector must be installed on any part of the user's head or shoulders. Also, if the distance between the projection surface and the handheld device cannot be made too long, the available situations will be considerably limited. Further, since the system described in Non-Patent Document 4 is an installation type, it is assumed that the positional relationship between the projection surface (wall or desk) other than the handheld device and the projector is obtained in advance. This assumption is impractical for small mobile terminals.

一方、特許文献2の携帯型端末は設置型ではないものの、距離測定手段がスクリーンまでの距離を出力することや、ライトバルブ式プロジェクタを用いていることからも、対象としている投影面が、対象実環境中の一平面(スクリーン)であることがわかる。そのため、端末までの距離の異なる複数の投影面が存在する場合、すべての投影面に焦点を合わせることは困難である。   On the other hand, although the portable terminal of Patent Document 2 is not an installation type, since the distance measuring means outputs the distance to the screen and uses a light valve projector, the target projection surface is the target. It turns out that it is one plane (screen) in a real environment. Therefore, when there are a plurality of projection surfaces having different distances to the terminal, it is difficult to focus on all the projection surfaces.

非特許文献5において提案されている頭部装着型レーザプロジェクタでは、2つのガルバノミラー(2次元レーザスキャナ)を用いて、レーザ光源をスキャンするため投影距離に関わらず、鮮明な映像を提示することができるとしているが、ガルバノミラーの振れ角自体は比較的広いものの、振動周波数の制限により、一度に投影できる映像は数文字の文字情報など画角の狭いものに限られている。そのため、実環境のさまざまな場所や利用者の手などに一度に視覚情報を投影して提示することは、そもそも想定していない。   The head mounted laser projector proposed in Non-Patent Document 5 uses two galvanometer mirrors (two-dimensional laser scanners) to scan a laser light source and presents a clear image regardless of the projection distance. Although the galvanometer mirror has a relatively wide deflection angle, the image that can be projected at a time is limited to a narrow angle of view such as character information of several characters due to the limitation of the oscillation frequency. For this reason, it is not assumed that visual information is projected and presented at once in various places in the real environment or in the hands of users.

非特許文献6も、非特許文献4と同様、設置型のシステムである。ライトバルブ式プロジェクタを用いたプロカムシステムを天井に設置するため、投影距離を比較的長くとることができ、手の平と床の双方にピントの合った映像を提示することができるが、携帯型にした場合にはそれは困難となる。   Similarly to Non-Patent Document 4, Non-Patent Document 6 is an installation type system. Since the ProCam system using a light valve projector is installed on the ceiling, the projection distance can be made relatively long, and a focused image can be presented on both the palm and the floor. If you do it will be difficult.

また、利用者の手以外を計測する手段を有しておらず、さらに、その計測も、投影像の影響を考慮したり、積極的に投影像を利用したりといった方法を採用せず、映像中の手の肌色情報や形状情報などから手の平の位置や大きさおよび向きを計算しようとしている。このため、実環境で安定して手の平に映像を投影することは困難である。   In addition, there is no means to measure anything other than the user's hand, and the measurement also takes into account video without taking into account the effect of the projected image or actively using the projected image. I am trying to calculate the position, size, and orientation of my palm from skin color information and shape information. For this reason, it is difficult to stably project an image on the palm in an actual environment.

非特許文献7では、手の上にしか映像を投影しないため、肩に装着したライトバルブ式プロジェクタの焦点は利用者の手の届く範囲に限定しておけばよいが、その場合、実環境と手の双方に投影像を同時に提示することは困難となる。非特許文献7では手以外の投影面を想定していない。また、非特許文献6とは異なり、投影像が手の計測のための画像処理に悪影響を与えないようにするため、近赤外線画像を処理対象としている。そのため、非特許文献6よりも安定して手の計測が可能であるが、日光や他の熱源が観測されてしまう状況では、手の計測が不安定になってしまう。   In Non-Patent Document 7, since the image is projected only on the hand, the focus of the light valve projector mounted on the shoulder may be limited to the range that can be reached by the user's hand. It is difficult to present projected images to both hands simultaneously. Non-Patent Document 7 does not assume a projection surface other than the hand. Unlike Non-Patent Document 6, near-infrared images are processed in order to prevent the projected image from adversely affecting image processing for hand measurement. Therefore, the hand measurement can be performed more stably than in Non-Patent Document 6, but the measurement of the hand becomes unstable in the situation where sunlight and other heat sources are observed.

本発明は、上記のような様々な事情に鑑みてなされたものであり、本発明の目的は、作業空間を動き回りつつ作業をする利用者が携帯または装着でき、手前側と奥側の投影面を利用して映像を提示しつつ、直感的にわかりやすく操作をすることができるプロジェクタとカメラを備えた小型携帯端末を提供することにある。   The present invention has been made in view of the various circumstances as described above, and an object of the present invention is to allow a user who works while moving around the work space to carry or wear the projection surfaces on the near side and the far side. An object of the present invention is to provide a small portable terminal equipped with a projector and a camera that can be operated intuitively and intelligibly while presenting an image using.

また、本発明の別の目的は、作業空間を動き回りつつ作業をする利用者が携帯または装着でき、作業空間中の作業対象や設置物、利用者の持つ物体や体の一部に、複雑な視覚情報を直接投影しながら作業手順や指示を与え、さらに、利用者の持つ物体や利用者の体の一部の形状、さらにはその奥の作業対象や設置物との位置関係を変化させることにより、投影像の一部を選択する指示を与え、また、これにより、投影像の内容を変更することができる小型携帯端末を提供することにある。   In addition, another object of the present invention is that a user who works while moving around the work space can carry or wear it, and a work object or installation in the work space, a part of the user's object or body, can be complicated. Gives work procedures and instructions while directly projecting visual information, and changes the user's object, the shape of a part of the user's body, and the positional relationship with the work object and installation in the back. Thus, an instruction to select a part of the projection image is given, and a small portable terminal capable of changing the content of the projection image is thereby provided.

上記のような目的を達成するため、本発明による小型携帯端末は、一つの態様として、平行光線または焦点深度の深い光線を1画素とした光線群により投影像を投影するプロジェクタと、前記投影像を含む実空間を撮影するカメラと、前記カメラにより撮影された画像から投影像を含む実空間の画像を解析し、その解析結果および前記カメラと前記プロジェクタとの位置関係に基づいて、前記プロジェクタに最も近い投影面である手前側投影面とその手前側投影面よりも遠い投影面である奥側投影面との前記画像中での位置および前記手前側投影面と奥側投影面の三次元的な位置関係を検出する投影面検出手段と、前記プロジェクタを制御して当該プロジェクタにより前記手前側投影面と奥側投影面の双方に焦点の合った投影像を投影しながら、前記手前側投影面と奥側投影面との位置関係およびその変化状況に応じて前記投影像の内容の制御を行う投影像制御手段と、前記プロジェクタに投影像を供給するデータ処理手段とを備える構成とされる。   In order to achieve the above object, as one aspect, a small portable terminal according to the present invention projects a projection image by a group of light beams including a parallel light beam or a light beam having a deep focal depth as one pixel, and the projection image. The real space including the camera, and analyzing the real space image including the projection image from the image captured by the camera, and based on the analysis result and the positional relationship between the camera and the projector, The position in the image of the near side projection plane that is the closest projection plane and the far side projection plane that is farther than the near side projection plane in the image, and the three-dimensional relationship between the near side projection plane and the near side projection plane A projection plane detecting means for detecting a correct positional relationship, and controlling the projector to project a focused projection image on both the front projection plane and the rear projection plane by the projector. A projection image control means for controlling the contents of the projection image in accordance with a positional relationship between the near side projection plane and the back side projection plane and a change state thereof, and a data processing means for supplying the projection image to the projector. It is set as the structure provided.

また、上記の構成において、前記プロジェクタは、高周波の1次元スキャンミラーと低周波の1次元スキャンミラーを組み合わせた2次元スキャンミラーを用いたレーザプロジェクタであり、前記高周波のスキャンミラーのスキャン方向は、前記カメラの光学中心と前記プロジェクタの光学中心とを結ぶ直線にほぼ平行であるように構成される。   In the above configuration, the projector is a laser projector using a two-dimensional scan mirror in which a high-frequency one-dimensional scan mirror and a low-frequency one-dimensional scan mirror are combined, and the scan direction of the high-frequency scan mirror is: The optical center of the camera and the optical center of the projector are configured to be substantially parallel to a straight line.

また、本発明による小型携帯端末において、さらに、当該小型携帯端末を利用者の胸部または肩部に装着するための装着具を備えるように構成される。   In addition, the small portable terminal according to the present invention is further configured to include a mounting tool for mounting the small portable terminal on the chest or shoulder of the user.

本発明による小型携帯端末においては、さらに、前記プロジェクタから投影される投影像の各画素を投影する光線群に対して、投影距離の近い投影面に投影される光線の本数を間引いて投影する光線間引き手段を有し、前記プロジェクタは前記光線間引き手段の制御により投影像を投影し、前記手前側投影面においても奥側投影面においても、投影像が鮮明に投影されるように構成される。   In the small portable terminal according to the present invention, the light ray projected by thinning out the number of light rays projected on the projection plane having a short projection distance with respect to the light ray group projecting each pixel of the projection image projected from the projector. The projector has a thinning means, and the projector projects a projected image under the control of the light thinning means, and the projected image is clearly projected on both the near-side projection surface and the back-side projection surface.

また、別の態様として、本発明の小型携帯端末においては、さらに、手前側投影面で隠蔽されることにより利用者からは観測できないが、前記カメラからは観測できる奥側投影面の中の部分領域に対し、直線、点群、円、三角形、格子模様のいずれかの幾何学的なパターン光を前記プロジェクタを制御して投影し、前記カメラにより前記パターン光を撮影することにより、前記部分領域の形状または前記カメラと前記部分領域との距離を計測する隠蔽領域投影手段を有するように構成される。   As another aspect, in the small portable terminal of the present invention, a portion in the back side projection surface that can be observed from the camera although it cannot be observed from the user by being concealed by the near side projection surface. By projecting a geometric pattern light of any one of a straight line, a point cloud, a circle, a triangle, and a lattice pattern onto the region by controlling the projector, and photographing the pattern light with the camera, the partial region Or a concealment area projection means for measuring the distance between the camera and the partial area.

また、別の態様として、本発明による小型携帯端末において、前記カメラは、魚眼カメラであり、さらに、投影面検出手段には、前記魚眼カメラにより撮影された魚眼画像から透視射影画像への画像変換を行う画像変換手段を備え、投影面検出手段が、前記画像変換手段により画像変換された透視射影画像に基づいて、手前側投影面と奥側投影面の三次元的な位置関係を検出するように構成される。   As another aspect, in the small portable terminal according to the present invention, the camera is a fish-eye camera, and the projection plane detection unit converts the fish-eye image photographed by the fish-eye camera into a perspective projection image. Image conversion means for performing the image conversion of the image, and the projection plane detection means determines the three-dimensional positional relationship between the front projection plane and the rear projection plane based on the perspective projection image converted by the image conversion means. Configured to detect.

上記のような構成による本発明の小型携帯端末は、利用者に呈示する画像を出力するプロジェクタと画像を入力するカメラを備えており、作業空間を動き回りつつ作業をする利用者が当該小型携帯端末を携帯または装着することにより、作業空間中の作業対象や設置物、利用者の持つ物体や体の一部に、複雑な視覚情報を直接投影しながら作業手順や指示を与えることができ、さらに、利用者の持つ物体や利用者の体の一部の形状、さらにはその奥の作業対象や設置物との位置関係を変化させることにより、投影像の一部を選択する指示を与え、また、これにより、投影像の内容を変更することができる。   The small portable terminal of the present invention configured as described above includes a projector that outputs an image to be presented to a user and a camera that inputs the image, and a user who works while moving around the work space By carrying or wearing the camera, it is possible to give work procedures and instructions while projecting complex visual information directly onto work objects and installations in the work space, and objects and parts of the user's body. Gives instructions to select a part of the projected image by changing the shape of the user's object or part of the user's body, and the positional relationship with the work object or installation object Thereby, the contents of the projected image can be changed.

すなわち、本発明においては、プロジェクタに最も近い投影面である手前側投影面(典型例は利用者の手)とその手前側投影面よりも遠い投影面である奥側投影面との双方に焦点の合った映像として、平行光線または焦点深度の深い光線を1画素としその光線群による投影像により投影される平行光線群投影手段が、プロジェクタにより提供され、当該プロジェクタにより投影される投影像を含む実空間の画像をカメラで撮影し、その画像を解析することで、手前側投影面と奥側投影面の画像中での位置を検出し、手前側投影面と奥側投影面との位置関係に応じて投影像の内容を制御する。これにより、投影像の一部を選択したり、投影像の内容を変更したりする指示を与えることができる。   That is, in the present invention, the focal point is focused on both the near side projection plane (typically the user's hand) that is the projection plane closest to the projector and the far side projection plane that is farther than the near side projection plane. A parallel light group projecting unit that projects a parallel light beam or a light beam having a deep focal depth as a pixel as a projected image is projected by the projector, and includes a projection image projected by the projector. By taking a real-space image with a camera and analyzing the image, the positions of the front and back projection planes in the image are detected, and the positional relationship between the front and back projection planes The content of the projection image is controlled according to the above. Thereby, an instruction to select a part of the projection image or to change the content of the projection image can be given.

以下、本発明を実施するための一形態について、本発明の小型携帯端末の実施例を、図面を参照して説明する。図1は、本発明による小型携帯端末のシステム構成を説明する図である。図1において、100は小型携帯端末である。小型携帯端末100には、正面側からの外観により図示するように、カメラ1、プロジェクタ2、自蔵式センサ3が設けられており、図示されないが、それぞれが情報処理システム4に接続されている。   Hereinafter, an embodiment of a small portable terminal according to the present invention will be described with reference to the drawings as an embodiment for carrying out the present invention. FIG. 1 is a diagram illustrating a system configuration of a small portable terminal according to the present invention. In FIG. 1, reference numeral 100 denotes a small portable terminal. The small portable terminal 100 is provided with a camera 1, a projector 2, and a self-contained sensor 3 as shown in the external view from the front side, and each is connected to the information processing system 4 although not shown. .

情報処理システム4には、情報処理を実行するための主要なシステム要素となる処理モジュールとして、投影面検出手段5、投影像制御手段6、無線通信手段8が設けられており、また、情報処理を行う対象として、カメラ1により撮影されて取り込まれる入力画像700、プロジェクタ2から投影される画像である投影ソース画像800の画像データが記憶される記憶装置が設けられている。図示されないが、これらの制御処理を行うと共に画像処理の情報処理のためのデータ処理を行うためのデータ処理手段が設けられている。   The information processing system 4 is provided with a projection plane detection unit 5, a projection image control unit 6, and a wireless communication unit 8 as processing modules that are main system elements for executing information processing. As storage targets, a storage device is provided in which image data of an input image 700 captured and captured by the camera 1 and a projection source image 800 that is an image projected from the projector 2 is stored. Although not shown, a data processing means for performing these control processes and performing data processing for image processing information processing is provided.

図1の右側には、小型携帯端末100のプロジェクタ2から投影される画像の複数の投影面の位置関係を図示するため、小型携帯端末100を、裏側からの外観により図示すると共に、この小型携帯端末100のプロジェクタ2から投影される投影像を示している。小型携帯端末100のカメラ1は、プロジェクタ2から投影された投影像を含む実空間を撮影する。プロジェクタ2は平行光線または焦点深度の深い光線を1画素とした光線群により投影像を投影する。自蔵式センサ3は、加速度、角速度、地磁気などを計測して小型携帯端末100の位置情報を取得する。もちろん、カメラ1、プロジェクタ2、自蔵式センサ3の配置は、図示された形態に限らず、変更されてもよい。また、自蔵式センサ3には、姿勢センサが含まれていても良い。さらには姿勢センサからのデータ用いて安定化制御手段により姿勢制御を行うことにより、プロジェクタ2により投影される位置、カメラ1により撮影される画像に対する安定化制御を行うことができる。このような姿勢センサおよび安定化制御手段は周知のものが利用できる。また、カメラ1には広視野カメラが用いられる。   On the right side of FIG. 1, in order to illustrate the positional relationship between a plurality of projection planes of an image projected from the projector 2 of the small portable terminal 100, the small portable terminal 100 is illustrated by an appearance from the back side, and the small portable terminal is illustrated. The projection image projected from the projector 2 of the terminal 100 is shown. The camera 1 of the small portable terminal 100 captures a real space including a projection image projected from the projector 2. The projector 2 projects a projection image with a light beam group in which a parallel light beam or a light beam having a deep focal depth is one pixel. The self-contained sensor 3 measures acceleration, angular velocity, geomagnetism, etc., and acquires position information of the small mobile terminal 100. Of course, the arrangement of the camera 1, the projector 2, and the self-contained sensor 3 is not limited to the illustrated form, and may be changed. The self-contained sensor 3 may include an attitude sensor. Furthermore, by performing posture control by the stabilization control means using data from the posture sensor, it is possible to perform stabilization control for the position projected by the projector 2 and the image photographed by the camera 1. Known attitude sensors and stabilization control means can be used. The camera 1 is a wide-field camera.

小型携帯端末100には、情報処理システム4が内蔵または接続されており、情報処理システム4により画像処理の情報処理のためのデータ処理が行われる。情報処理システム4に設けられた投影面検出手段5が、投影面の手前側または奥側を検出するための情報処理を行い、投影像制御手段6が、手前側の投影面に投影像を投影するか、または奥側の投影面の投影像を投影するかの制御を行う。無線通信手段8は、図示しない遠隔地の指示者のシステムとの間の通信を行い、カメラ1で撮影した入力画像700を指示者のシステムに送信し、また指示者のシステムからの制御情報の受信を行い、投影ソース画像800の供給を受ける通信などを行う。   An information processing system 4 is built in or connected to the small portable terminal 100, and data processing for information processing of image processing is performed by the information processing system 4. The projection plane detection unit 5 provided in the information processing system 4 performs information processing for detecting the near side or the far side of the projection plane, and the projection image control unit 6 projects the projection image on the projection plane on the near side. To control whether to project the projection image on the rear projection surface. The wireless communication means 8 communicates with a remote instructor system (not shown), transmits the input image 700 taken by the camera 1 to the instructor system, and receives control information from the instructor system. Communication is performed to receive and supply the projection source image 800.

図1の右側の図は、小型携帯端末100のプロジェクタ2から投影される投影像を示しており、プロジェクタ2が設けられた小型携帯端末100と、最も近い投影面である手前側投影面200となる利用者の手と、遠い投影面である奥側投影面201との位置関係を示している。奥側投影面201には投影像の中に利用者の手の影(キャストシャドウ202)が映っている様子が示されている。   1 shows a projection image projected from the projector 2 of the small portable terminal 100, and the small portable terminal 100 provided with the projector 2 and the near-side projection plane 200 which is the closest projection plane. The positional relationship between the user's hand and the far side projection plane 201 which is a far projection plane is shown. The back projection surface 201 shows a state in which the shadow of the user's hand (cast shadow 202) is shown in the projection image.

小型携帯端末100のプロジェクタ2に最も近い投影面である手前側投影面200は、例えば、その代表的なものの1つである利用者の手であり、その手前側投影面200よりも遠い投影面である奥側投影面201は、例えば、利用者が対面している壁面である。   The near-side projection plane 200 that is the projection plane closest to the projector 2 of the small mobile terminal 100 is, for example, a user's hand, which is one of the representative ones, and is farther than the near-side projection plane 200. The back side projection surface 201 is, for example, a wall surface facing the user.

利用者の手の手前側投影面200には投影像300が投影され、利用者が対面している壁面の奥側投影面201には投影像400が投影される。手前側投影面200は、奥側投影面201に対してはその形状が影部分となり、奥側投影面201においてキャストシャドウ202となり、投影部分から除かれている状態となる。図1においては、四角錐に近い形状をした空間となっている領域が投影光到達空間203である。投影光到達空間203内に手前側投影面200が進入したときに、投影像が一部分で分離されてキャストシャドウ202が発生する。   A projected image 300 is projected onto the near side projection surface 200 of the user's hand, and a projected image 400 is projected onto the back side projection surface 201 of the wall surface facing the user. The near-side projection surface 200 has a shadow portion with respect to the back-side projection surface 201, becomes a cast shadow 202 on the back-side projection surface 201, and is removed from the projection portion. In FIG. 1, the projection light arrival space 203 is a region that is a space having a shape close to a quadrangular pyramid. When the near-side projection surface 200 enters the projection light arrival space 203, the projection image is partially separated and a cast shadow 202 is generated.

このように、小型携帯端末100においては、プロジェクタ2により投影ソース画像800を、平行光線または焦点深度の深い光線を1画素とした光線群による投影像として、投影光到達空間203を介して、手前側投影面200および奥側投影面201に投影するので、前述したように、投影光到達空間203内に利用者の手が進入したとき、その利用者の手の手前側投影面200には投影像300が映し出され、奥側投影面201には投影像400が映し出される。   As described above, in the small mobile terminal 100, the projection source image 800 is projected by the projector 2 as a projection image of a light beam group in which a parallel light beam or a light beam having a deep focal depth is set as one pixel via the projection light arrival space 203. Since the projection is performed on the side projection plane 200 and the back projection plane 201, as described above, when a user's hand enters the projection light arrival space 203, the projection is performed on the front projection plane 200 of the user's hand. The image 300 is projected, and the projection image 400 is projected on the back side projection surface 201.

カメラ1は、これらの投影像(300,400)を含む実空間を撮影するので、これらの画像が入力画像700として取り込まれる。入力画像700に対して、投影面検出手段5の情報処理による画像処理が実行されて、詳細は後述するが、カメラ1により撮影された入力画像から投影像を含む実空間の画像を解析し、その解析結果およびカメラ1とプロジェクタ2との位置関係に基づいて、プロジェクタ2に最も近い投影面である手前側投影面200と、その手前側投影面200よりも遠い投影面である奥側投影面201との前記画像中での位置および前記手前側投影面200と奥側投影面201の三次元的な位置関係を検出する情報処理を行う。   Since the camera 1 captures a real space including these projected images (300, 400), these images are captured as the input image 700. The input image 700 is subjected to image processing by information processing of the projection plane detection means 5, and details will be described later, but an actual space image including the projection image is analyzed from the input image photographed by the camera 1, Based on the analysis result and the positional relationship between the camera 1 and the projector 2, the near-side projection plane 200 that is the projection plane closest to the projector 2 and the far-side projection plane that is farther than the near-side projection plane 200. Information processing for detecting a position in the image with respect to 201 and a three-dimensional positional relationship between the near side projection plane 200 and the back side projection plane 201 is performed.

また、投影像制御手段6はその情報処理により、後述するように、プロジェクタ2を制御して、プロジェクタ2により手前側投影面200と奥側投影面201の双方に焦点の合った投影像を投影しながら、手前側投影面200と奥側投影面201との位置関係およびその変化状況に応じて投影する投影像の内容の制御を行う。   Further, the projection image control means 6 controls the projector 2 by the information processing as described later, and projects a focused projection image on both the front projection surface 200 and the back projection surface 201 by the projector 2. However, the content of the projected image to be projected is controlled in accordance with the positional relationship between the near side projection plane 200 and the back side projection plane 201 and the change state thereof.

プロジェクタ2は、平行光線または焦点深度の深い光線を1画素とし、その光線群により投影像(300,400)を投影するが、これは平行光線群投影手段として機能するものであり、典型例としては、高周波の1次元スキャンミラーとそのスキャン方向とは直交したスキャン方向を持つ低周波の1次元スキャンミラーを組み合わせた2次元スキャンミラーおよび平行光線または焦点深度の深い光線を出力するレーザ光源を用いたレーザプロジェクタを用いる。   The projector 2 uses a parallel light beam or a light beam having a deep focal depth as one pixel, and projects a projection image (300, 400) by the light beam group. This functions as a parallel light beam projecting unit, and is a typical example. Uses a two-dimensional scan mirror that combines a high-frequency one-dimensional scan mirror and a low-frequency one-dimensional scan mirror that has a scan direction orthogonal to the scan direction, and a laser light source that outputs parallel rays or rays with a deep focal depth. Used a laser projector.

プロジェクタ2としては、そのようなレーザプロジェクタを用いるが、平行光線または焦点深度の深い光線を1画素とし、その光線群により投影像を投影する平行光線群投影手段として機能するもので有れば他の投影手段でも構わない。   As the projector 2, such a laser projector is used, but any other projector can be used as long as it functions as a parallel light group projecting unit that projects a parallel light beam or a light beam having a deep focal depth as one pixel and projects a projection image using the light beam group. The projection means may be used.

入力画像700は、カメラ1を用いて、投影像300、投影像400、およびキャストシャドウ202を含む実空間を撮影した画像データである。投影ソース画像800は、投影像制御手段6によりプロジェクタ2が制御されて、投影される投影ソース画像である。投影ソース画像800は、図示しないデータ処理手段によって生成され、加工される。また、無線通信手段8により外部のサーバから供給される。   The input image 700 is image data obtained by capturing a real space including the projection image 300, the projection image 400, and the cast shadow 202 using the camera 1. The projection source image 800 is a projection source image that is projected when the projector 2 is controlled by the projection image control means 6. The projection source image 800 is generated and processed by data processing means (not shown). Further, the wireless communication unit 8 supplies the external server.

手前側投影面200および奥側投影面201を検出する投影面検出手段5は、入力画像700を用いて画像解析し、その画像解析の結果、および、カメラ1とプロジェクタ2との位置関係を用いて、入力画像700の中での手前側投影面200と奥側投影面201の位置を検出する。と共に、手前側投影面200と奥側投影面201の三次元的な位置関係を検出する。投影面検出手段5の情報処理では、後述するように、公知のキャストシャドウ202を検出する方法を用いる。   Projection plane detection means 5 for detecting the near side projection plane 200 and the back side projection plane 201 performs image analysis using the input image 700 and uses the result of the image analysis and the positional relationship between the camera 1 and the projector 2. Thus, the positions of the near side projection plane 200 and the back side projection plane 201 in the input image 700 are detected. At the same time, a three-dimensional positional relationship between the near side projection plane 200 and the back side projection plane 201 is detected. In the information processing of the projection plane detection unit 5, a known method for detecting the cast shadow 202 is used as will be described later.

また、投影面検出手段5の別の実施例としては、投影ソース画像800の中に含まれるエッジやコーナーなどの画像特徴を予め検出し、入力画像700においてそれらの画像特徴を探索して対応付けする情報処理を行うことにより、手前側投影面200および奥側投影面201を検出するように構成されてもよい。   As another example of the projection plane detection means 5, image features such as edges and corners included in the projection source image 800 are detected in advance, and those image features are searched for and associated in the input image 700. By performing the information processing to be performed, the front side projection surface 200 and the back side projection surface 201 may be detected.

画像特徴としては、例えば、Sobelオペレータを用いて検出されるエッジや、SIFT(Scale Invariant Feature Transform)キーと呼ばれる特徴点記述方法で記述される特徴点などを用いることができる。これにより、投影ソース画像800を、一般的なレンジファインダで用いられている点群やスリット光などのパターン光と同様に扱うことができることになる。つまり、カメラ100とプロジェクタ2によるアクティブステレオ法を用いたレンジファインダとして、小型携帯端末100を使用することができる。   As the image feature, for example, an edge detected using a Sobel operator, a feature point described by a feature point description method called a SIFT (Scale Invariant Feature Transform) key, or the like can be used. Thereby, the projection source image 800 can be handled in the same manner as pattern light such as a point cloud and slit light used in a general range finder. That is, the small portable terminal 100 can be used as a range finder using the active stereo method by the camera 100 and the projector 2.

ただし、この場合には、投影ソース画像800は、パターン光として適切に設計されたものではないため、画像特徴のある領域の距離しか計測できない。その他の領域の距離は画像特徴のある領域の結果から補間、または、キャストシャドウによる方法と組み合わせた処理を実行することとなる。   However, in this case, since the projection source image 800 is not appropriately designed as pattern light, only the distance of a region having an image feature can be measured. For the distance between the other regions, processing combined with a method using interpolation or cast shadow is executed based on the result of the region having image characteristics.

投影像制御手段6は、手前側投影面200と奥側投影面201との位置関係およびその変化の状況を用いて(これらの状況を判別して)、これらの投影面に投影する投影像を変化させる制御を行い、応用例において投影ソース画像800を利用する場合の内容の制御を行う。図2は、本発明の小型携帯端末において手前側投影面および奥側投影面の投影面に投影する投影像を変化させる制御を説明する図である。図2を参照して説明する。   The projection image control means 6 uses the positional relationship between the near-side projection plane 200 and the back-side projection plane 201 and the state of change thereof (discriminating these situations) to project projection images to be projected onto these projection planes. Control is performed to change the contents when the projection source image 800 is used in the application example. FIG. 2 is a diagram for explaining control for changing projection images projected on the projection surfaces of the near side projection surface and the back side projection surface in the small portable terminal of the present invention. This will be described with reference to FIG.

図2は、典型的な実施例を示している。図2の左側は、手前側投影面200である利用者の手を上下左右に動かして、奥側投影面201に投影された投影像400の一部を手前側投影面200に映している様子を表している。手前側投影面200を拡大した図を図2の左下に示している。図2の左下の拡大図によると、この場合は衛星写真である奥側投影面201上の投影像400から「AIST Tsukuba」と書かれた部分300を手前側投影面200に乗せるように映している様子が示されている。つまり、投影像の一部が切り出されて映されている。   FIG. 2 shows an exemplary embodiment. In the left side of FIG. 2, the user's hand, which is the front projection plane 200, is moved up, down, left, and right, and a part of the projection image 400 projected on the back projection plane 201 is projected on the front projection plane 200. Represents. An enlarged view of the front projection surface 200 is shown in the lower left of FIG. According to the enlarged view at the lower left of FIG. 2, in this case, a portion 300 written as “AIST Tsukuba” is projected from the projection image 400 on the rear projection surface 201 which is a satellite photograph so as to be placed on the front projection surface 200. The situation is shown. That is, a part of the projected image is cut out and shown.

ここで、例えば、投影面検出手段5の結果を用いて、手前側投影面200が同じ位置で数秒静止したことを投影像制御手段6が判断すると、「AIST Tsukuba」と書かれた部分の投影像300が選択されたと認識することができる。さらに、この場合、投影像制御手段6は、投影像検出手段5により手前側投影面200が検出されているので、図2の右側の中央部に示すように、手前側投影面200上に投影される投影像300を、この投影像300から投影像302のように切り替えて表示することができる。ここで投影像302としては、表示される投影像を変化させて、「AIST Tsukuba」と書かれた部分(投影像300)に存在する建物が半分程度建設されたときの様子を示すCG画像が投影される。   Here, for example, when the projection image control means 6 determines that the near side projection plane 200 is stationary at the same position for several seconds using the result of the projection plane detection means 5, the projection of the part written as “AIST Tsukuba” It can be recognized that the image 300 has been selected. Further, in this case, since the near-side projection plane 200 is detected by the projection image detecting means 5, the projection image control means 6 projects onto the near-side projection plane 200 as shown in the center part on the right side of FIG. The projected image 300 to be displayed can be switched from the projected image 300 to a projected image 302 and displayed. Here, as the projection image 302, a CG image showing a state when about half of the building existing in the portion (projection image 300) written as “AIST Tsukuba” is constructed by changing the displayed projection image. Projected.

図2の左側の図は、利用者の手である手前側投影面200が上下左右に動いた場合の例であるが、図2の右側の図は、前後、つまり、手前側投影面200が、投影像400が映されている奥側投影面201に近づくように動くか、離れるように動くかを示したものである。   2 is an example in which the near side projection plane 200 that is the user's hand moves up, down, left, and right, but the right side view of FIG. FIG. 4 shows whether the projection image 400 moves toward or away from the far side projection surface 201 on which the projection image 400 is projected.

この場合、図2の右側の中央部に示すように、例えば、建物が半分程度建設されたときの様子を示すCG画像の投影像302が表示された状態において、手前側投影面200をより手前、つまり、奥側投影面201から離すように動かした場合に、投影像制御手段6が手前側投影面200に投影される投影像を、建物が完全に建設されたときの様子を示すCG画像の投影像303に変更し、逆に、手前側投影面200をより奥、つまり奥側投影面201に近付けるように動かした場合には、投影像制御手段6が手前側投影面200に投影されるCG画像の投影像としては、建物が建設される前の様子を示すCG画像の投影像301に変更する。このように投影像を変化させることにより、投影されるCG画像の時間軸を操作することができる。   In this case, as shown in the center part on the right side of FIG. 2, for example, in the state in which a projection image 302 of a CG image showing a state where about half of the building has been constructed is displayed, the near side projection surface 200 is placed closer to the near side. In other words, when moved away from the rear projection surface 201, the projection image control means 6 projects a projection image projected on the front projection surface 200, and shows a CG image showing a state when the building is completely constructed. On the contrary, when the front side projection surface 200 is moved so as to be closer to the back side projection surface 201, the projection image control means 6 is projected onto the front side projection surface 200. The projected image of the CG image is changed to a projected image 301 of the CG image showing a state before the building is constructed. By changing the projected image in this way, the time axis of the projected CG image can be manipulated.

このような直感的な操作は、プロジェクタ2が平行光線群投影手段として機能することにより、手前側投影面と奥側投影面の双方に焦点の合った投影像を投影しながら実施することができる。このような適用例は、従来にはなく、本発明による小型携帯端末が有する優れた特徴である。なお、小型携帯端末100には自蔵式センサ3を設けているが、自蔵式センサ3により小型携帯端末100の運動量を計測することにより、この運動量を制御情報として、投影像制御手段6の情報処理により、投影像400を奥側投影面201上の同じ位置に投影するような投影像安定化処理を施してもよい。   Such an intuitive operation can be performed while projecting a projected image in focus on both the near side projection surface and the far side projection surface by the projector 2 functioning as a parallel light group projection unit. . Such an application example is an unprecedented feature and is an excellent feature of the small portable terminal according to the present invention. Although the small portable terminal 100 is provided with the self-contained sensor 3, by measuring the momentum of the small portable terminal 100 with the self-contained sensor 3, this momentum is used as control information of the projection image control means 6. A projection image stabilization process may be performed such that the projection image 400 is projected onto the same position on the back projection plane 201 by information processing.

図1および図2の説明では、奥側投影面201が平面である場合の実施例を説明しているが、例えば、図3に示すように、投影面に凹凸があり、さらにプロジェクタ2の投影方向に対して奥行きがあり、ライトバルブ式プロジェクタのように、すべての場所に焦点を合わせられないような投影面が、ここでの奥側投影面201とされてもよい。   In the description of FIGS. 1 and 2, the embodiment in the case where the back side projection surface 201 is a plane is described. However, for example, as shown in FIG. A projection surface that has a depth with respect to the direction and cannot be focused on all places, such as a light valve projector, may be used as the rear projection surface 201 here.

図3は、本発明の小型携帯端末により投影する投影面が凹凸である場合の実施例を説明する図である。図3を参照して具体的に説明する。ここでは、小型携帯端末100を胸部分に装着した利用者600が、机500の上に置いてある3つの箱に対して作業しようとしている状況が示されている。胸部分の小型携帯端末100によって、そのプロジェクタ2から、利用者600から向かって左の箱451には、「Sell−by−date Jan 31, 2007」という注釈が投影されおり、真ん中の箱452には、「Outdated」という注釈が投影されており、右の箱453には、「Send to」という注釈が投影されている。さらに、右の箱453と机500上に投影された地図情報450が、線454により視覚的に接続された状態となるように投影されており、右の箱453をどこに送ればよいかということが直感的にわかるように指示される。また、この場合において、例えば、さらに利用者600が手を差し伸べて手前側投影面(200)を作り、地図の一部を選んでその詳細情報を得るといったインタラクションも可能である。   FIG. 3 is a diagram for explaining an embodiment when the projection surface projected by the small portable terminal of the present invention is uneven. This will be specifically described with reference to FIG. Here, a situation is shown in which a user 600 wearing the small portable terminal 100 on the chest is working on three boxes placed on a desk 500. The annotation “Sell-by-date Jan 31, 2007” is projected from the projector 2 to the left box 451 from the projector 2 toward the left side of the user 600 by the small portable terminal 100 in the chest, and is displayed on the middle box 452. , An annotation “Outdated” is projected, and an annotation “Send to” is projected in the right box 453. Further, the map information 450 projected on the right box 453 and the desk 500 is projected so as to be visually connected by a line 454, and where to send the right box 453. Is intuitionally understood. In this case, for example, the user 600 can reach out to create the near side projection surface (200), select a part of the map, and obtain detailed information thereof.

このようなインタラクションは、本発明の小型携帯端末100に、平行光線群投影手段の機能を提供するプロジェクタ2、投影像を撮影するカメラ1が備えられて、手前側投影面または奥側投影面を検出する投影面検出手段5、手前側投影面または奥側投影面に投影する投影像を制御する投影像制御手段6、および画像処理を行う処理モジュールが情報処理システムが設けられることにより、はじめて実現できるものであり、従来にはない優れた特徴である。   Such an interaction includes a small portable terminal 100 according to the present invention provided with a projector 2 that provides the function of a parallel light group projection unit, and a camera 1 that captures a projected image. This is realized for the first time by providing the information processing system with the projection plane detection means 5 for detecting, the projection image control means 6 for controlling the projection image projected on the near side projection plane or the back side projection plane, and the processing module for performing image processing. This is an excellent feature that is not possible in the past.

なお、無線通信手段8により、遠隔地の協調作業者(指示者)にカメラ1で撮影される入力画像700を送信すると共に、その遠隔地の協調作業者から投影する投影像300、400を受信し、プロジェクタ2により作業空間に投影することができる。この場合に、図示されていないが、音声対話手段を、このような映像の送受信と併用することにより、典型的な遠隔協調作業システムの実施例を構成することができる。   The wireless communication means 8 transmits an input image 700 taken by the camera 1 to a remote collaborator (instructor) and receives projection images 300 and 400 projected from the remote collaborator. Then, it can be projected onto the work space by the projector 2. In this case, although not shown, an embodiment of a typical remote cooperative work system can be configured by using voice interaction means together with transmission / reception of such video.

前述したように、平行光線群投影手段とされる機能が提供されるプロジェクタ2の典型例としては、高周波の1次元スキャンミラーとそのスキャン方向とは直交したスキャン方向を持つ低周波の1次元スキャンミラーを組み合わせた2次元スキャンミラーおよび平行光線または焦点深度の深い光線を出力するレーザ光源を用いたレーザプロジェクタを用いているが、ここで、この小型携帯端末において利用されるプロジェクタでは、その高周波のスキャンミラーのスキャン方向は、カメラ1の光学中心とプロジェクタ2の光学中心とを結ぶ直線にほぼ平行に設定する。これにより、後述のキャストシャドウの境界が画像処理により検出しやすくなる。   As described above, as a typical example of the projector 2 provided with the function as the parallel light group projection means, a high-frequency one-dimensional scan mirror and a low-frequency one-dimensional scan having a scan direction orthogonal to the scan direction are provided. A laser projector using a two-dimensional scanning mirror combined with a mirror and a laser light source that outputs a parallel beam or a beam having a deep focal depth is used. Here, in a projector used in this small portable terminal, The scan direction of the scan mirror is set substantially parallel to a straight line connecting the optical center of the camera 1 and the optical center of the projector 2. This makes it easier to detect a boundary of a cast shadow described later by image processing.

次に、手前側投影面200または奥側投影面201を検出する投影面検出手段5の1つの典型的な実施例のキャストシャドウ202の検出法による手前側投影面または奥側投影面を検出する情報処理ついて、図4を用いて説明する。   Next, the near side projection plane or the far side projection plane is detected by the cast shadow 202 detection method of one typical embodiment of the projection plane detection means 5 for detecting the near side projection plane 200 or the back side projection plane 201. Information processing will be described with reference to FIG.

図4は、キャストシャドウ検出法によって手前側投影面または奥側投影面を検出する情報処理の一例を説明する図である。図4において、801は投影ソース画像である。投影ソース画像801を、DMDを用いたライトバルブ式プロジェクタをプロジェクタ2として用いて構成した小型携帯端末(コンセプト検証システム)により、手前側投影面200である手の平と奥側投影面201である壁面に投影した。702はその際にカメラ1から得られた入力画像である。なお、ライトバルブ式プロジェクタは焦点深度が浅いため、プロジェクタ2と手前側投影面200との距離を約30cm、プロジェクタ2と奥側投影面との距離を約45cmとし、なるべくどちらの像にも焦点が合うようにした。   FIG. 4 is a diagram illustrating an example of information processing for detecting the near side projection plane or the back side projection plane by the cast shadow detection method. In FIG. 4, reference numeral 801 denotes a projection source image. The projection source image 801 is applied to the palm which is the front projection plane 200 and the wall which is the back projection plane 201 by a small portable terminal (concept verification system) configured using a light valve projector using DMD as the projector 2. Projected. Reference numeral 702 denotes an input image obtained from the camera 1 at that time. Since the light valve projector has a shallow depth of focus, the distance between the projector 2 and the front projection surface 200 is approximately 30 cm, and the distance between the projector 2 and the rear projection surface is approximately 45 cm. I tried to fit.

奥側投影面に投影される投影像には、投影された手前側投影面200のキャストシャドウ30が現れる。キャストシャドウ30と奥側投影面上の投影像の境界線31は投影像の輝度の変化にも依存するが、境界線31と直交する方向の輝度勾配は比較的大きい。手前側投影面200の典型例である手の反射光は、主に拡散反射成分から成り、さらに、表面の法線方向が境界32付近では光線と直交し反射光がさらに弱くなるため、手前側投影面200の典型例である手とキャストシャドウ30との境界32は、比較的輝度勾配が小さいものとなっている。これらを考慮して、高めの閾値と低めの閾値を用いた2段階の二値化により輪郭を抽出する情報処理を行い、2本の輪郭の上下間隔33がほぼ同じ部分が画像中の横方向に連続して存在する場所をキャストシャドウ30であると判定して、キャストシャドウ30を検出する。   The cast shadow 30 of the projected near side projection surface 200 appears in the projection image projected on the back side projection surface. The boundary line 31 between the cast shadow 30 and the projected image on the far side projection plane depends on the change in the luminance of the projected image, but the luminance gradient in the direction orthogonal to the boundary line 31 is relatively large. The reflected light of the hand, which is a typical example of the near side projection surface 200, mainly comprises a diffuse reflection component, and further, the normal direction of the surface is orthogonal to the light beam in the vicinity of the boundary 32 and the reflected light is further weakened. A boundary 32 between the hand and the cast shadow 30 which is a typical example of the projection surface 200 has a relatively small luminance gradient. In consideration of these, information processing is performed to extract a contour by two-level binarization using a higher threshold value and a lower threshold value, and the portion where the vertical interval 33 of the two contours is substantially the same is the horizontal direction in the image. The cast shadow 30 is detected by determining that the location that exists continuously is the cast shadow 30.

もちろん、手前側投影面200が手ではない場合、境界32の画像中での性質は異なってくるため、手前側投影面200の種類ごとに境界32を抽出する処理を選ぶようにすることも可能である。さらに、キャストシャドウ30の形状と手前側投影面200の形状モデルを対応付ければ、入力画像702に映っている手前側投影面200のスケールがわかるため、手前側投影面200までの大まかな距離も判明する。また、手前側投影面200およびキャストシャドウ30を除いた領域を奥側投影面とみなす。   Of course, when the near side projection plane 200 is not a hand, the nature of the boundary 32 in the image is different. Therefore, it is possible to select a process for extracting the boundary 32 for each type of the near side projection plane 200. It is. Furthermore, if the shape of the cast shadow 30 is associated with the shape model of the near side projection plane 200, the scale of the near side projection plane 200 shown in the input image 702 can be known, so that the rough distance to the near side projection plane 200 can also be obtained. Prove. Further, the area excluding the front projection plane 200 and the cast shadow 30 is regarded as the back projection plane.

前述したように、手前側投影面200を、図2の右側に示したように手前や奥に動かして、CGの映像301〜303を切り替えて表示させるような場合、必ずしも絶対的な距離は必要ではない。例えば、カメラ1から観測できるキャストシャドウ30の幅33の変化だけで奥行き方向の操作をすることもできる。図2において、CGの映像302が表示されている状態を基準の状態だとすると、その状態よりキャストシャドウ30の幅33が狭くなったときは手前側投影面200は奥に、広くなったときは近くに移動したと判定して、CGの映像301〜303を切り替える制御を投影像制御手段6の制御により実施することができる。この場合、手前側投影面200と奥側投影面201の三次元な位置の相対的な関係を求めていることになる。   As described above, when the front projection surface 200 is moved to the front or back as shown on the right side of FIG. 2 and the CG images 301 to 303 are switched and displayed, an absolute distance is not necessarily required. is not. For example, the operation in the depth direction can be performed only by changing the width 33 of the cast shadow 30 that can be observed from the camera 1. In FIG. 2, assuming that the state in which the CG image 302 is displayed is a reference state, the near side projection surface 200 is in the back when the width 33 of the cast shadow 30 is narrower than that state, and close when the cast shadow 30 is widened. Therefore, it is possible to carry out control to switch the CG images 301 to 303 under the control of the projection image control means 6. In this case, the relative relationship between the three-dimensional positions of the near side projection plane 200 and the back side projection plane 201 is obtained.

図5は、本発明による小型携帯端末の利用の一例を説明する図である。図5に示す実験例は、図4と同じ条件で実験を行った例である。ここでは、移動中の利用者が地図アプリで自分と他の作業者の位置を把握しつつ、ある作業者を選択して対話するというシナリオを想定している。図5において、入力画像701、入力画像702、入力画像703はそれぞれある時点での入力画像であり、入力画像701、入力画像702、入力画像703の順で時間が進んでいる。投影ソース画像801は、入力画像701、入力画像702の時点のものであり、投影ソース画像802は入力画像703の時点のものである。地図上の協調作業者を示すアイコン304を手に乗せる操作、例えば、手前投影面の手のひらにアイコン304が映るような操作を行うと(入力画像701、入力画像702)、その協調作業者の顔写真305が表示され、しばらくそのままにすると通話のために相手を呼び出すといった操作の流れになっている。   FIG. 5 is a diagram for explaining an example of use of a small portable terminal according to the present invention. The experimental example shown in FIG. 5 is an example in which an experiment was performed under the same conditions as in FIG. Here, a scenario is assumed in which a moving user selects and interacts with a certain worker while grasping the positions of himself and other workers using a map application. In FIG. 5, an input image 701, an input image 702, and an input image 703 are input images at a certain point in time, and time advances in the order of the input image 701, the input image 702, and the input image 703. The projection source image 801 is the one at the time of the input image 701 and the input image 702, and the projection source image 802 is the one at the time of the input image 703. When an operation for putting the icon 304 indicating the cooperative worker on the map on the hand, for example, an operation such that the icon 304 appears in the palm of the front projection surface (input image 701, input image 702), the face of the cooperative worker is displayed. A picture 305 is displayed, and if it is left as it is for a while, the operation flow is such that the other party is called for a call.

図3では、小型携帯端末100が利用者600の胸中央辺りに装着されている例を説明したが、手に持つのではなく装着する場合において、本発明による小型携帯端末の装着位置を客観的に判断するため、ここでの実物体操作を伴う作業の支援のためという観点でのシミュレーションによる評価を実施した。評価項目として、視界の広さ、作業領域の見易さ、動作中における安定性をあげ、それらの加重平均を総合的な評価結果とした。   FIG. 3 illustrates an example in which the small portable terminal 100 is worn around the chest center of the user 600. However, when the small portable terminal 100 is worn instead of being held in the hand, the mounting position of the small portable terminal according to the present invention is objective. Therefore, the evaluation by the simulation was performed from the viewpoint of supporting the work accompanied by the actual object operation. As evaluation items, the breadth of field of view, the visibility of the work area, and the stability during operation were raised, and the weighted average of them was used as a comprehensive evaluation result.

図6は、小型携帯端末の装着位置を客観的に判断するために実物体操作を伴う作業の支援という観点でのシミュレーション評価の結果を説明する図である。図6には、そのシミュレーションの結果を可視化した評価の一例を示している。51は視界の広さについて、52は作業領域の見易さについて、53は首振り動作中における安定性について、54は歩行動作中における安定性についてのそれぞれの評価の結果である。50はそれらの加重平均による総合的な評価結果の可視化図である。これらの図では、暗い方がよい評価であり、明るい方が悪い評価が与えられた部位を示している。この結果に基づき、本発明による小型携帯端末100は、基本的には、利用者の胸部または肩部でさらに体の前方に位置する部位55に小型携帯端末を装着して使用する。そのように装着するための装着具を小型携帯端末100に設けている。   FIG. 6 is a diagram for explaining the result of the simulation evaluation from the viewpoint of supporting work involving real object operation in order to objectively determine the mounting position of the small mobile terminal. FIG. 6 shows an example of evaluation that visualizes the result of the simulation. Reference numeral 51 denotes the field of view, 52 denotes the visibility of the work area, 53 denotes the stability during the swing motion, and 54 denotes the results of the stability during the walking motion. 50 is a visualization diagram of a comprehensive evaluation result by the weighted average. In these figures, the darker is the better evaluation and the brighter is the bad evaluation. Based on this result, the small portable terminal 100 according to the present invention is basically used by attaching the small portable terminal to a portion 55 located further in front of the body on the chest or shoulder of the user. The small portable terminal 100 is provided with a mounting tool for such mounting.

図7は、プロジェクタの変形例の光線間引き手段の動作を説明する図である。光線間引き手段の動作の概略を示している。光線間引き手段12は、プロジェクタ2から投影される投影像の各画素が投影面上で重なり合って投影像が不鮮明にならないように、プロジェクタから投影される投影像の各画素を投影する光線群に対して、投影距離の近い投影面に投影される光線の本数を間引いて投影するように、プロジェクタ2を制御する制御手段である。40は1本分の平行光線を表している。また、図7では、説明の簡略化のため、手前側投影面200、奥側投影面201それぞれを平面で表し、プロジェクタ2の1スキャンライン分のみの図示としている。2次元スキャンの場合も同様の考え方で間引くことができる。また、プロジェクタ2から手前側投影面200までの距離とプロジェクタ2から奥側投影面201までの距離は1:2となっている。   FIG. 7 is a diagram for explaining the operation of the light beam thinning means according to a modification of the projector. An outline of the operation of the beam thinning means is shown. The light thinning means 12 applies to the light beam group for projecting each pixel of the projection image projected from the projector so that the pixels of the projection image projected from the projector 2 overlap on the projection surface and the projection image does not become blurred. Thus, it is a control means for controlling the projector 2 so that the number of light rays projected onto a projection surface with a short projection distance is thinned out and projected. Reference numeral 40 denotes one parallel light beam. Further, in FIG. 7, for simplification of explanation, the front side projection surface 200 and the back side projection surface 201 are each represented by a plane, and only one scan line of the projector 2 is illustrated. In the case of two-dimensional scanning, thinning out can be performed in the same way. Further, the distance from the projector 2 to the front projection plane 200 and the distance from the projector 2 to the back projection plane 201 are 1: 2.

例えば、プロジェクタ2の光線群出力(40)が、プロジェクタ2から奥側投影面201までの距離において、奥側投影面201上で各光線が重ならず、密に画素を表示できるように設定されているとすると、手前側投影面200では、2本に1本の割合で光線を間引くことで、各画素が投影面上で重なり合って、投影像が不鮮明にならないようにすることができる。この割合は、投影面検出手段5により各投影面までの距離を求めることにより決定することができる。つまり、光線間引き手段12を用いることにより、手前側投影面200においても奥側投影面201においても、同時に投影像が鮮明に投影される。   For example, the light beam group output (40) of the projector 2 is set so that pixels can be displayed densely at the distance from the projector 2 to the back side projection surface 201 without overlapping each light ray on the back side projection surface 201. If this is the case, on the near side projection surface 200, by thinning out light rays at a rate of one in two, it is possible to prevent pixels from overlapping on the projection surface and blurring the projected image. This ratio can be determined by obtaining the distance to each projection plane by the projection plane detection means 5. In other words, by using the light thinning means 12, the projected image is clearly projected simultaneously on both the front side projection surface 200 and the back side projection surface 201.

図8は、プロジェクタの別の変形例の隠蔽領域撮影手段の動作を説明する図である。隠蔽領域投影手段による動作の概略を示している。これも、図7と同様、1スキャンライン分のみの図示となっているが、2次元スキャンの場合も同様の考え方を採用することができる。隠蔽領域投影手段13は、手前側投影面200で隠蔽されることにより利用者視点601からは観測できないが、カメラ1からは観測できる奥側投影面201中の部分領域60に対し、直線や点群、円、三角形、格子模様などの幾何学的なパターン光を投影し、カメラ1で撮影することにより、部分領域60の3次元形状や、カメラ1と部分領域60との距離を計測する情報処理を行う。部分領域60は、利用者視点601からは観測することができないため、利用者にとって有用な視覚情報をそこに提示しても無駄になってしまう。隠蔽領域投影手段13では、部分領域60の位置を、投影面検出手段5により求めて、幾何学的なパターン光を投影する。これにより、部分領域60に対しては、カメラ1とプロジェクタ2によるアクティブステレオ法を用いたレンジファインダとして小型携帯端末100を使用することができる。   FIG. 8 is a diagram for explaining the operation of the concealment area photographing means of another modification of the projector. The outline of the operation | movement by a concealment area | region projection means is shown. Similarly to FIG. 7, only one scan line is shown, but the same concept can be adopted in the case of two-dimensional scanning. The concealed area projecting means 13 cannot be observed from the user viewpoint 601 because it is concealed by the near side projection plane 200, but a straight line or a point with respect to the partial area 60 in the back side projection plane 201 that can be observed from the camera 1. Information that measures the three-dimensional shape of the partial region 60 and the distance between the camera 1 and the partial region 60 by projecting geometric pattern light such as groups, circles, triangles, and lattice patterns and photographing with the camera 1 Process. Since the partial area 60 cannot be observed from the user viewpoint 601, even if visual information useful for the user is presented there, it is wasted. The hidden area projection means 13 obtains the position of the partial area 60 by the projection plane detection means 5 and projects the geometric pattern light. Thereby, for the partial region 60, the small portable terminal 100 can be used as a range finder using the active stereo method by the camera 1 and the projector 2.

図9は、ユーザの手により隠蔽される投影領域にパターン光を提示している様子を説明する図である。図9(a)にユーザの視線の画像を示し、図9(b)にカメラにより撮影される画像を示している。前述したように、ユーザ視線(図9(a)の画像)からは、手前側投影面200および奥側投影面201が観測されるが、奥側投影面201には、ユーザからは観測できないが、カメラからは観測できる領域60が奥側投影面201の中に存在する(図9(b)の画像)。そのような領域60の一部に、例えば、図9(b)に示されるように、パターン光を投影する。領域60に投影されたパターン光は、ユーザの手によりユーザ視線が遮られて、ユーザからは観測することはできないため、領域60に投射する画像を利用して、ユーザが気づかない間にキャリブレーションや3次元形状取得などを実行することができる。また、奥側投影面201上に存在する手前側投影面200のキャストシャドウ202についても、両投影面の関係を知る上で重要な情報源として利用できる。
FIG. 9 is a diagram illustrating a state in which pattern light is presented in a projection area that is hidden by a user's hand. FIG. 9A shows an image of the user's line of sight, and FIG. 9B shows an image taken by the camera. As described above, the near side projection surface 200 and the back side projection surface 201 are observed from the user's line of sight (image in FIG. 9A), but the back side projection surface 201 cannot be observed by the user. An area 60 that can be observed from the camera is present in the rear projection plane 201 (image in FIG. 9B). For example, as shown in FIG. 9B, pattern light is projected onto a part of such a region 60. The pattern light projected on the region 60 is blocked by the user's hand and cannot be observed by the user. Therefore, calibration is performed while the user does not notice using the image projected on the region 60. And 3D shape acquisition can be executed. Further, the cast shadow 202 of the near side projection plane 200 existing on the back side projection plane 201 can also be used as an important information source for knowing the relationship between both projection planes.

本発明による小型携帯端末100は、プロジェクタとカメラとを組み合わせたシステムであり、前述したプロカムシステムと呼ばれるシステムである。この小型携帯端末100によって、頭部を拘束しない新しい装着型インタフェースが提供される。この装着型インタフェースにより、実世界と仮想世界をシームレスに融合させた新しいインタラクション技法が、いつでもどこでもユーザに提供されるようになる。装着型インタフェースのユーザインタフェースの詳細については、本発明者等は、BOWL ProCam(BOdy−Worn Laser Projector Camera)と称してこれまでに継続して、その細部に構成について実証しながら提案しているシステムである。これまでの実験結果について説明する。   A small portable terminal 100 according to the present invention is a system in which a projector and a camera are combined, and is a system called the above-described pro-cam system. The small portable terminal 100 provides a new wearable interface that does not restrain the head. With this wearable interface, new interaction techniques that seamlessly merge the real and virtual worlds will be provided to users anytime and anywhere. Regarding the details of the user interface of the wearable interface, the present inventors have proposed so-called BOWL ProCam (BOdy-Worn Laser Projector Camera) and have been proposing it while demonstrating its configuration in detail. It is. The experimental results so far will be described.

BOWL ProCamシステムには、特徴的には、焦点深度の深いレーザプロジェクタを用いて様々なコンテンツの投影像を投影し、広範囲な状況把握を可能にする高精細の魚眼カメラによりその投影像を撮像して画像処理を行い、さらには、投影像の安定化のために有効な姿勢角センサを備え、安定して利用者に新しいインタラクションの操作が行えるように構成している。これらの構成についての評価も行っている。   Characteristically, the BOWL ProCam system projects a projected image of various contents using a laser projector with a deep focal depth, and captures the projected image with a high-definition fish-eye camera that makes it possible to grasp a wide range of situations. In addition, an attitude angle sensor effective for stabilizing the projected image is provided, and the user can stably operate a new interaction. We are also evaluating these configurations.

ProCamシステムの装着部位評価のために、そのシミュレーション実験とその結果について説明する。実物体操作を伴う作業の支援に適したProCamシステムという観点から評価を実施し、その装着部位としては胸部を選んでいる。これは、インタフェースの操作としては、具体的には、机や壁などの投影面に呈示されたコンテンツを、ユーザの手に代表される手前の投影面で遮り、すくい取るように選択する操作を行えやすくするためである。デスクトップ画像とその投影像を撮影した入力画像とを用いたアクティブステレオ法と、ライトバルブ式プロジェクタを用いて開発したシステムによる評価である。   The simulation experiment and the result will be described for evaluating the wearing part of the ProCam system. Evaluation is performed from the viewpoint of a ProCam system suitable for supporting work involving real object operations, and the chest is selected as the wearing site. Specifically, as an interface operation, the content presented on the projection surface such as a desk or a wall is blocked by the front projection surface represented by the user's hand and selected so as to be scooped out. This is to make it easier to do. This is an evaluation using a system developed using an active stereo method using a desktop image and an input image obtained by photographing the projected image and a light valve projector.

WACLに関するユーザテストの結果に基づいた新しい装着型入出力インタフェースのBOWL ProCam(BOdy−Worn Laser Projector Camera)は、レーザプロジェクタ、高精細広角カメラの高精細魚眼カメラ、慣性センサまたは姿勢角センサなどを用いる安定化装置から構成されており、いくつもの優れた特徴を備えている。   BOWL ProCam (BOdy-Worn Laser Projector Camera), a new wearable input / output interface based on the results of user tests on WACL, is a laser projector, a high-definition wide-angle camera, a high-definition fisheye camera, an inertial sensor, or an attitude angle sensor. It consists of the stabilization device used and has a number of excellent features.

具体的には、高精細の広角カメラを用いることにより、作業者の動きに関わらず作業空間を把握しやすいというWACLの特徴を維持している。これにより、同一対象を継続的に観測でき、その把握が可能であり、投影像のスタビライズや作業履歴記録なども容易になる。アクティブカメラと比較し、高精細化や広角化に伴うモーションブラーや露光の難しさなどの問題があるが、アクチュエータが不要であるという利点は大きい。   Specifically, by using a high-definition wide-angle camera, the WACL feature that it is easy to grasp the work space regardless of the movement of the worker is maintained. As a result, the same object can be continuously observed and grasped, and projection image stabilization and work history recording can be facilitated. Compared with active cameras, there are problems such as motion blur and difficulty in exposure due to high definition and wide angle, but the advantage of not requiring an actuator is great.

レーザプロジェクタの特徴は、高度な視覚情報を実世界に直接投影可能であるだけでなく、焦点深度が深く、小型化が容易、消費電力が低いなどの特徴があげられる。このレーザプロジェクタでは、ステンレス製のミラー、駆動部、及びその駆動部上にエアロゾルデポジション(AD)法により形成される圧電素子からなる小型スキャニングミラーを採用しており、一般的なMEMSスキャナと比較し、高速走査、高画角化、低コスト化の実現が容易である。   The features of the laser projector include not only the ability to project advanced visual information directly to the real world, but also the features such as deep depth of focus, easy miniaturization, and low power consumption. This laser projector employs a stainless steel mirror, a drive unit, and a small scanning mirror consisting of a piezoelectric element formed on the drive unit by the aerosol deposition (AD) method, compared with a general MEMS scanner. However, it is easy to realize high-speed scanning, high angle of view, and low cost.

さらに、ProCamシステムとしては、アクティブステレオ技術やShape−from−Motion技術の組み合わせにより実世界の3次元構造獲得も可能となるため、システムがユーザや実環境をより把握した状態での直感的なインタラクション技法を提供できる。   In addition, the ProCam system can acquire 3D structures in the real world through a combination of active stereo technology and shape-from-motion technology, so the system can intuitively interact with the user and the real environment better understood. Can provide techniques.

カメラの装着位置を決定する場合は、考慮される点として、装着者視点からの映像を得るため、装着者周囲(前方、後方、全体)の状況を捉えるため、手指の動作や歩行動作を捉えるため、また、日常無理なく装着できるようにするためなど、さまざまな理由を考慮して設定される。これらは経験的、もしくは実験的見地により決められたものが多いが、より客観的にカメラの装着位置を評価するために、Mayolらは1800ポリゴンからなる人間の多関節モデルを用いたシミュレータを開発して評価している。   When determining the mounting position of the camera, as a point to be taken into consideration, to obtain the image from the wearer's viewpoint, to capture the situation of the wearer's surroundings (front, back, overall), to capture the movement of the fingers and walking Therefore, it is set in consideration of various reasons, such as enabling it to be worn without difficulty every day. Many of these are determined empirically or experimentally, but in order to more objectively evaluate the camera mounting position, Mayol et al. Developed a simulator using a human articulated model consisting of 1800 polygons. And evaluate.

図6を参照して説明したように、実物体操作を伴う作業の支援のためのProCamシステムという観点により、Mayolらのシミュレータを改良して、BOWL ProCamの装着位置の評価実験を行った。評価項目としては、視界の広さ(field of view)、作業領域の見易さ(handling space)、動作中における安定性(stability)をあげ、次の式のように、それらの加重平均Eを総合的な評価結果とした。
As described with reference to FIG. 6, the simulator of Mayol et al. Was improved from the viewpoint of a ProCam system for supporting work involving real object operations, and an experiment for evaluating the mounting position of BOWL ProCam was conducted. The evaluation items include the field of view, the visibility of the work area, the stability during operation, and the weighted average E as shown in the following equation. It was set as a comprehensive evaluation result.

ここで、wfov、whs、wstbは各評価項目の重みである。ここでは、作業領域の見易さ、安定性を重視し、wfov=0.1,whs=0.5,wstb=0.4としている。視界の広さEfovは、理想的な全方向カメラを体の各部位に装着した場合の自己隠蔽(self−occlusion)の割合の小ささにより評価する(図6左上)。作業領域の見易さの評価では、両腕を、図6左下のような状態にして上下させた時に、両手先を結ぶ直線が通る領域を典型的な作業領域として設定する。そして、その領域中の各サンプル点をユーザ視点で見た場合の視線方向を示す単位ベクトルと、体の部位から見た投影した)場合の視線方向(投影方向)を示す単位ベクトルとの内積の大きさを評価値Ehsとする。動作中の安定性については、歩行動作(図6右下)と首を回転させての見回し動作(図6右上)における各部位の変位量の少なさにより評価した(Ewalk,Elook)。 Here, w fov , w hs and w stb are the weights of the respective evaluation items. Here, emphasis is placed on the visibility and stability of the work area, and w fov = 0.1, w hs = 0.5, and w stb = 0.4. The field of view Efov is evaluated by the small self-occlusion ratio when an ideal omnidirectional camera is attached to each part of the body (upper left of FIG. 6). In the evaluation of the visibility of the work area, an area through which a straight line connecting both hands is passed as a typical work area when both arms are moved up and down in a state as shown in the lower left of FIG. Then, the inner product of the unit vector indicating the line-of-sight direction when each sample point in the region is viewed from the user's viewpoint and the unit vector indicating the line-of-sight direction (projection direction) when projected from the body part) Let the magnitude be an evaluation value E hs . The stability during movement was evaluated by the small amount of displacement of each part in the walking movement (lower right of FIG. 6) and the turning movement of the neck (upper right of FIG. 6) (E walk , E look ).

この結果、図6の中央に示すように、このシミュレーションによる評価では、上半身の前側上部がもっともProCamシステムの装着位置として適しているという結果が得られた。評価項目やその重みの設定により多少結果が変動する場合もあるが、この評価結果に沿って、「BOWL ProCam」のシステムを設計している。   As a result, as shown in the center of FIG. 6, in the evaluation by this simulation, a result that the front upper part of the upper body was most suitable as the mounting position of the ProCam system was obtained. Although the result may vary slightly depending on the setting of the evaluation item and its weight, the “BOWL ProCam” system is designed according to this evaluation result.

焦点深度が深く画角が広いというレーザプロジェクタの特徴を活かしたインタラクション技法としては、図2により前述したように、ユーザの手に代表される手前の投影面(手前側投影面200)、および机や壁などの奥の投影面(奥側投影面201)の双方を効果的に利用している。これらの例では、手を上下左右に動かして壁面に表示されている投影像を遮りすくい取るような感覚でコンテンツを選択し、前後に動かすことで、選択部分のさらなる情報を引き出し閲覧する指示を与えている。   As described above with reference to FIG. 2, the interaction technique utilizing the feature of the laser projector having a large depth of focus and a wide angle of view includes a front projection surface represented by the user's hand (front projection surface 200), and a desk. Both the rear projection plane (the rear projection plane 201) such as a wall and a wall are effectively used. In these examples, the user selects his / her content by moving his / her hand up / down / left / right and blocks the projected image displayed on the wall, and moves it back and forth. Giving.

一般に、液晶やDMDなどを用いた従来型のライトバルブ式プロジェクタでは、その光学的特性から、手前の投影面(手)と奥の投影面(壁面)のそれぞれに視覚情報を結像させることは困難であったが、平行光線に近い光線により投影像を投影できるレーザプロジェクタを用いることで、その問題は軽減される。このため、このインタラクション技法は「BOWL ProCam」システムに適したものであるといえる。ただし、どのプロジェクタを用いたとしても、どこに手前の投影面があり、さらには、どこに奥の投影面があるかを把握できなければ、コンテンツを選択したり、手の上の視覚情報のみを変化させたりすることはできない。   In general, in a conventional light valve projector using liquid crystal, DMD, or the like, visual information is imaged on the front projection surface (hand) and the rear projection surface (wall surface) due to its optical characteristics. Although difficult, the problem can be reduced by using a laser projector that can project a projection image with light rays close to parallel rays. For this reason, it can be said that this interaction technique is suitable for the “BOWL ProCam” system. However, no matter what projector is used, if you do not know where the front projection plane is and where the rear projection plane is, you can select content or change only the visual information on the hand I can't let you.

手前側投影面と奥側投影面とを用いたユーザインタフェースを実現する「BOWL ProCam」システムに特有のインタラクション技法の実施するため、投影されるデスクトップ画像とその投影像を撮影した入力画像とを用いたアクティブステレオ法に基づく手前の面の検出処理を行う。   In order to implement the interaction technique unique to the “BOWL ProCam” system that implements a user interface using the front and rear projection planes, a projected desktop image and an input image obtained by capturing the projection image are used. The front surface is detected based on the active stereo method.

手前側投影面と奥側投影面とを検出すると共に、その位置関係まで検出する画像処理のデータ処理を行うに際しては、プロジェクタと掌の距離を約35−55cm程度、奥側投影面との距離を約65cmとし、なるべくどちらの投影像にも焦点が合うようにして投影できるようにする。また、奥側投影面としては平面を仮定している。   When performing image processing data processing for detecting the near side projection surface and the back side projection surface and detecting the positional relationship, the distance between the projector and the palm is about 35-55 cm, and the distance between the back side projection surface Is set to approximately 65 cm so that projection can be performed with both images as focused as possible. In addition, a plane is assumed as the rear projection plane.

ここでの小型携帯端末においては、カメラ1は、広視野角の魚眼カメラを用いることにより、的確に投影像をその周辺部分をも含めて撮影して、撮影した画像に対する画像処理を行う。このため、投影面検出手段5には、図示しないが、魚眼カメラにより撮影された魚眼画像から透視射影画像への画像変換を行う画像変換手段を備える。そして、投影面検出手段5が、画像変換手段により画像変換された透視射影画像に基づいて、手前側投影面と奥側投影面の三次元的な位置関係を検出する。   In the small portable terminal here, the camera 1 uses a fisheye camera with a wide viewing angle, accurately captures the projected image including its peripheral portion, and performs image processing on the captured image. For this reason, although not shown, the projection plane detection unit 5 includes an image conversion unit that performs image conversion from a fish-eye image captured by a fish-eye camera to a perspective projection image. Then, the projection plane detection unit 5 detects a three-dimensional positional relationship between the near side projection plane and the far side projection plane based on the perspective projection image that has been image-converted by the image conversion unit.

図10は、等距離射影(equidistance projection)方式の魚眼カメラの撮像系とプロジェクタの投影系との関係を説明する図であり、図11には、魚眼カメラからの入力画像と透視射影変換した結果の画像を示している。魚眼カメラにより撮影された魚眼画像に対して、図10に示すような撮像系の関係の演算式を計算するデータ処理を行い、魚眼画像から透視射影画像への変換を行う。ここでの画像中心から画素xcまでの距離lは像高と呼ばれ、等距離射影方式では、l=fθ、透視射影方式ではl=ftan(θ)となる関係を有する。この関係に基づいて、魚眼画像から透視射影画像への変換を行う。変換結果の例を、図11(b)に示している。図11(a)は魚眼カメラからの入力画像を示している。図11(b)に示された画像変換された画像では、魚眼画像の外周に対する円フィッティングによる簡易なパラメトリック補正のみを行った結果の例を示している。 FIG. 10 is a diagram for explaining a relationship between an imaging system of an equidistant projection type fisheye camera and a projection system of a projector. FIG. 11 shows an input image from the fisheye camera and perspective projection conversion. The resulting image is shown. Data processing for calculating an arithmetic expression related to the imaging system as shown in FIG. 10 is performed on the fish-eye image captured by the fish-eye camera, and conversion from the fish-eye image to a perspective projection image is performed. The distance l from the center of the image to the pixel xc is called an image height, and has a relationship of l = f w θ in the equidistant projection method and l = f w tan (θ) in the perspective projection method. Based on this relationship, conversion from a fisheye image to a perspective projection image is performed. An example of the conversion result is shown in FIG. FIG. 11A shows an input image from the fisheye camera. In the image-converted image shown in FIG. 11B, an example of a result obtained by performing only simple parametric correction by circle fitting on the outer periphery of the fisheye image is shown.

図12〜図13は、それぞれ投影像撮像部分の平行化の処理と特徴点の対応付けの処理を説明する図である。投影像撮像部分の平行化の処理では、投影像の撮影された領域のみの平行化(rectification)した画像を、アスペクト比、解像度、原点がデスクトップ画像(図12上)に合うようにして生成する。図12下の図は、図11(b)の中央付近に撮像されている投影像を平行化した結果の画像を示している。   12 to 13 are diagrams for explaining the parallelization processing of the projected image capturing portion and the feature point association processing, respectively. In the parallelization processing of the projected image capturing portion, a rectified image of only the area where the projected image is captured is generated so that the aspect ratio, resolution, and origin match the desktop image (FIG. 12 top). . The lower part of FIG. 12 shows an image obtained as a result of parallelizing the projection image picked up near the center of FIG.

ここで、魚眼カメラから入力された入力画像の魚眼画像のデータを用いて、手前側投影面と奥側投影面とを検出するデータ処理について説明する。この処理では、次のようなステップ1〜ステップ5の処理を行い、手前側投影面と奥側投影面とを検出する。
ステップ1:魚眼カメラからの入力画像を透視射影像に変換する(図11)
ステップ2:投影像の撮影領域のみを平行化する(図12下)
ステップ3:デスクトップ画像中の特徴点を抽出する(図13上)
ステップ4:正規化相互相関によるステレオマッチングを行う(図13下)
ステップ5:手前の面の奥行きを推定する(図13下)
Here, data processing for detecting the near side projection plane and the back side projection plane using the fisheye image data of the input image input from the fisheye camera will be described. In this process, the following steps 1 to 5 are performed to detect the near side projection plane and the back side projection plane.
Step 1: An input image from a fisheye camera is converted into a perspective projection image (FIG. 11).
Step 2: Parallelize only the imaging area of the projected image (bottom of FIG. 12)
Step 3: Extract feature points from the desktop image (upper figure)
Step 4: Perform stereo matching by normalized cross-correlation (bottom of FIG. 13)
Step 5: Estimate the depth of the front surface (bottom of FIG. 13)

次に、図13に示すように、投影画像300の中からデスクトップ画像中の特徴点220を抽出し、正規化相互相関によるステレオマッチングを行い、手前の面の奥行きを推定する処理を行うが、これらの処理について説明する。   Next, as shown in FIG. 13, a feature point 220 in the desktop image is extracted from the projection image 300, stereo matching is performed by normalized cross-correlation, and the depth of the front surface is estimated. These processes will be described.

ここでのステレオマッチングの処理では、前段で得られた平行化画像とデスクトップ画像を用いてステレオマッチングを行う。平行化画像は、デスクトップ画像と投影面のテクスチャ(手相など)とを合成したような特徴を持ち、さらに投影面の反射特性や法線方向などによる影響も受けている。そこで、ここで処理では、まず、特徴点の抽出処理としては、2次元的に十分な特徴を持つ点のみをデスクトップ画像から抽出する。ここでは公知の「Harrisオペレータ」を用いて特徴点を検出する。図13(a)は、デスクトップ画像(図12(a)の画像)から得られた特徴点を示したものである。   In the stereo matching process here, stereo matching is performed using the parallelized image and the desktop image obtained in the previous stage. The parallelized image has a feature that combines a desktop image and a texture (such as a palm) of the projection surface, and is also affected by the reflection characteristics of the projection surface and the normal direction. Therefore, in this process, first, as a feature point extraction process, only points having two-dimensionally sufficient features are extracted from the desktop image. Here, a feature point is detected using a known “Harris operator”. FIG. 13A shows feature points obtained from a desktop image (image of FIG. 12A).

選ばれた特徴点は、正規化相互相関を用いたステレオマッチングによって対応付けを行う。厳密には、特徴点に含まれる輝度勾配と逆位相のテクスチャが投影面上に偶然存在すると、この方法では探索に失敗する場合があるので、ここでは、デスクトップ画像には通常多くの特徴点が含まれていること、また、投影像を打ち消すほどのテクスチャを多く含む投影像はこのインタラクション技法には向かないため使われないことを仮定している。その仮定の範囲内であれば、正常に機能する。   The selected feature points are associated by stereo matching using normalized cross-correlation. Strictly speaking, if a texture having a luminance gradient and an antiphase that is included in a feature point accidentally exists on the projection plane, the search may fail in this method. Therefore, a desktop image usually has many feature points. In addition, it is assumed that a projection image including a large amount of texture enough to cancel the projection image is not used because it is not suitable for this interaction technique. If it is within that assumption, it will function normally.

図13(b)の画像は、ステレオマッチングの結果の一例であり、対応付けにより得られた視差を黒線及び灰色の線で示している。黒色は手の存在する距離に対応する視差を、灰色はそれ以外の視差を表現している。奥側投影面上の特徴点の視差はほぼ0の画素となっていることも、この図からわかる。楕円221は手の距離と一致する視差を持つ特徴点の平行化画像中での座標値の分散を示し、中心が平均値、内側の楕円が0.5σ、外側が1σとなっている。このように、手前側投影面と奥側投影面上の特徴点が視差(距離)により分離できるとともに、手前側投影面の存在範囲も得ることができる。   The image in FIG. 13B is an example of the result of stereo matching, and the parallax obtained by the association is indicated by a black line and a gray line. Black represents the parallax corresponding to the distance of the hand, and gray represents the other parallax. It can also be seen from this figure that the parallax of the feature points on the back projection plane is almost zero pixels. An ellipse 221 represents the dispersion of coordinate values in the parallelized image of feature points having a parallax that matches the hand distance. The center is an average value, the inner ellipse is 0.5σ, and the outer is 1σ. Thus, the feature points on the near side projection plane and the far side projection plane can be separated by the parallax (distance), and the existence range of the near side projection plane can also be obtained.

次に、実証実験を行ったシステム全体について概説する。図14は、「BOWL ProCam」システムとその周辺を含んだシステム構成の図である。このシステムの特徴としては、まず、スクリーンダンプにより得られたデスクトップ画像を、3Dグラフィックエンジンの「OpenGL」でテクスチャとしてポリゴンに貼り付けてプロジェクタで投影している。これにより、さまざまな幾何補正をしながら任意のアプリケーションの画像を投影できるという利点を持つ。また、ここでの主な目的が、遠隔協調作業支援であるため、ウェブサービスベースのネットワークシステムと接続したシステム構成としており、コンテンツ共有や作業者同士の通信も想定したものとなっている。   Next, an overview of the entire system in which the demonstration experiment was conducted will be given. FIG. 14 is a diagram of a system configuration including the “BOWL ProCam” system and its periphery. As a feature of this system, first, a desktop image obtained by screen dumping is pasted on a polygon as a texture by a 3D graphic engine “OpenGL” and projected by a projector. This has an advantage that an image of an arbitrary application can be projected while performing various geometric corrections. In addition, since the main purpose here is remote cooperative work support, the system configuration is connected to a web service-based network system, and content sharing and communication between workers are also assumed.

実験では、作業者が主に地図アプリ(Google Earthを使用)上で下記の4通りのシナリオ(A)〜(D)に沿ったインタラクションを実施した。
シナリオ(A):共同作業者のうちの一人のアイコンを選び通話をはじめるインタラクションの例である。
シナリオ(B):3階フロアを取り除き1階フロアを確認する虫眼鏡メタファを用いたインタラクションの例である。
シナリオ(C):SQLサーバに蓄積された位置情報つき写真を選び、拡大された写真内の文字領域候補をさらに選んでOCRアプリケーションに入力する例である。
シナリオ(D):位置情報付きでSQLサーバに蓄積されている他のユーザのウェアラブルシステムにより獲得されたCGモデルを選び回転させて閲覧する例である。
In the experiment, the operator mainly performed the following four scenarios (A) to (D) on the map application (using Google Earth).
Scenario (A): An example of an interaction in which a call is started by selecting an icon of one of the collaborators.
Scenario (B): An example of interaction using a magnifying glass metaphor that removes the third floor and confirms the first floor.
Scenario (C): This is an example in which a photograph with position information stored in an SQL server is selected, and character region candidates in the enlarged photograph are further selected and input to the OCR application.
Scenario (D): This is an example in which a CG model acquired by the wearable system of another user stored in the SQL server with position information is selected, rotated, and browsed.

図15〜図17にシナリオ(A)〜(C)におけるユーザ視点映像を示している。それぞれにユーザ視点画像として、ユーザがアクションを起こす前の投影画像(a)、ユーザが手前が投影面とする手を差し出した画像(b)、さらに、指しだした手を動かして投影画像を変化させた画像(c)を示している。図15にはシナリオ(A)のユーザ視点映像を示し、図16にはシナリオ(B)のユーザ視点映像を示し、図17にはシナリオ(C)のユーザ視点映像を示している。デスクトップ画像および平行化画像はともに512×384画素の解像度とした。「Harrisオペレータ」のブロックサイズは13×13画素、正規化相関のブロックサイズは19×19画素であった。また、平行化画像も厳密には平行化できていないため、ステレオマッチングの走査線には左右1画素ずつの幅を持たせた。一般的なオフィス環境で実験を行い、天井の蛍光灯及び付近のデスクライトが環境光として存在した。   FIGS. 15 to 17 show user viewpoint videos in scenarios (A) to (C). Projected images (a) before the user takes action as the user viewpoint images, images (b) in which the user presents the hand with the projection surface in front of the user, and further changes the projected image by moving the pointing hand An image (c) is shown. 15 shows the user viewpoint video of scenario (A), FIG. 16 shows the user viewpoint video of scenario (B), and FIG. 17 shows the user viewpoint video of scenario (C). Both the desktop image and the parallelized image have a resolution of 512 × 384 pixels. The block size of the “Harris operator” was 13 × 13 pixels, and the block size of normalized correlation was 19 × 19 pixels. Further, since the parallelized image cannot be strictly parallelized, the stereo matching scanning line has a width of one pixel at the left and right. Experiments were conducted in a general office environment, and fluorescent lights on the ceiling and nearby desk lights were present as ambient light.

図18〜図20は、図15〜図17に対応している3通りのシナリオにおける手前側投影面の検出結果を示す図である。図18にはシナリオ(A)における手前側投影面の検出結果を示し、図19にはシナリオ(B)における手前側投影面の検出結果を示し、図20にはシナリオ(C)における手前側投影面の検出結果を示している。それぞれユーザがアクションを起こす前の投影画像(a)、ユーザが手前が投影面とする手を差し出した画像(b)、さらに、指しだした手を動かして投影画像を変化させた画像(c)に対して処理を行った結果を示している。   18 to 20 are diagrams showing detection results of the near side projection plane in the three scenarios corresponding to FIGS. 15 to 17. 18 shows the detection result of the near side projection plane in scenario (A), FIG. 19 shows the detection result of the near side projection plane in scenario (B), and FIG. 20 shows the near side projection in scenario (C). The detection result of a surface is shown. A projected image before the user takes action (a), an image (b) in which the user presents a hand as a projection plane, and an image (c) in which the projected image is changed by moving the pointing hand. Shows the result of processing.

まず、手前側投影面の検出であるが、各シナリオ中において、手を含む10画像と手を含まない4画像による実験の結果、手(手前側投影面)の誤検出、未検出とも見られなかった。次に、手が検出された10画像に対して、投影コンテンツの選択についての誤差評価を実施した。ここでは、検出された手の重心の座標とユーザが選択したかったコンテンツの中心座標との距離を画像の対角線の距離で割ったものを誤差とした。その結果、平均6.6%、標準偏差3.7%の誤差であった(図18〜図20)。   First, detection of the near side projection plane, but in each scenario, as a result of an experiment with 10 images including the hand and 4 images not including the hand, it can be seen that the hand (front side projection plane) is erroneously detected or not detected. There wasn't. Next, the error evaluation about the selection of projection content was performed with respect to 10 images in which the hand was detected. Here, an error is obtained by dividing the distance between the detected coordinates of the center of gravity of the hand and the center coordinates of the content desired to be selected by the user by the diagonal distance of the image. As a result, the average error was 6.6% and the standard deviation was 3.7% (FIGS. 18 to 20).

図21は、シナリオ(D)において、奥行きを変化させたときの手前側投影面の検出結果を示す図である。中央部の画像が基準となる奥行きを示し、上部の画像はそれよりも前に手を動かしたときの様子を示し、下部の画像はより奥に手を動かしたときの様子を示す図である。図21に示すように、手前側投影面の奥行きが異なる場合についても、正しく投影面を検出できることが確認できる。   FIG. 21 is a diagram illustrating a detection result of the near side projection plane when the depth is changed in the scenario (D). The center image shows the reference depth, the upper image shows the state when the hand is moved before it, and the lower image shows the state when the hand is moved further back. . As shown in FIG. 21, it can be confirmed that the projection plane can be correctly detected even when the depths of the front projection planes are different.

このように、本発明による小型携帯端末を用いることにより、作業空間を動き回りつつ作業をする利用者が携帯または装着でき、作業空間中の作業対象や設置物、利用者の持つ物体や体の一部などに、複雑な視覚情報を直接投影しながら作業手順や指示を与え、さらに、利用者の持つ物体や利用者の体の一部の形状、さらにはその奥の作業対象や設置物との位置関係を変化させることにより、投影像の一部を選択したり投影像の内容を変更したりすることができる小型携帯端末を提供することが可能となり、熟練労働者不足や安全管理問題の軽減のために非常に有益である。   As described above, by using the small portable terminal according to the present invention, a user who works while moving around the work space can carry or wear it, and the work object or installation in the work space, the object or body of the user can be one of them. Gives work procedures and instructions while projecting complex visual information directly to the part, etc., and further determines the shape of the user's object and part of the user's body, and the work object and installation in the back. By changing the positional relationship, it is possible to provide a small mobile terminal that can select a part of the projected image or change the contents of the projected image, reducing the shortage of skilled workers and safety management problems. Is very beneficial for.

本発明による小型携帯端末のシステム構成を説明する図である。It is a figure explaining the system configuration | structure of the small portable terminal by this invention. 本発明の小型携帯端末において手前側投影面および奥側投影面の投影面に投影する投影像を変化させる制御を説明する図である。It is a figure explaining the control which changes the projection image projected on the projection surface of a near side projection surface and a back side projection surface in the small portable terminal of this invention. 本発明の小型携帯端末により投影する投影面が凹凸である場合の実施例を説明する図である。It is a figure explaining the Example in case the projection surface projected with the small portable terminal of this invention is unevenness | corrugation. キャストシャドウ検出法により手前側投影面または奥側投影面を検出する方法の一例を説明する図である。It is a figure explaining an example of the method of detecting a near side projection surface or a back side projection surface by the cast shadow detection method. 本発明による小型携帯端末の利用の一例を説明する図である。It is a figure explaining an example of utilization of the small portable terminal by this invention. 小型携帯端末の装着位置を客観的に判断するために実物体操作を伴う作業の支援という観点でのシミュレーション評価の結果を説明する図である。It is a figure explaining the result of the simulation evaluation from a viewpoint of the assistance of the operation | work accompanying real object operation in order to judge the mounting position of a small portable terminal objectively. プロジェクタの変形例の光線間引き手段の動作を説明する図である。It is a figure explaining operation | movement of the light thinning-out means of the modification of a projector. プロジェクタの別の変形例の隠蔽領域撮影手段の動作を説明する図である。It is a figure explaining operation | movement of the concealment area | region imaging | photography means of another modification of a projector. ユーザの手により隠蔽される投影領域にパターン光を提示している様子を説明する図である。It is a figure explaining a mode that pattern light is shown to a projection field concealed by a user's hand. 等距離射影方式の魚眼カメラの撮像系とプロジェクタの投影系との関係を示す図である。It is a figure which shows the relationship between the imaging system of the fish-eye camera of an equidistant projection system, and the projection system of a projector. 魚眼カメラからの入力画像と透視射影変換した結果の画像を示す図である。It is a figure which shows the input image from a fisheye camera, and the image of the result of perspective projection conversion. 投影像撮像部分の平行化の処理を説明する図である。It is a figure explaining the process of parallelization of a projection image imaging part. 投影像撮像部分の特徴点の対応付けの処理を説明する図である。It is a figure explaining the process of matching of the feature point of a projection image imaging part. BOWL ProCamシステムとその周辺を含んだシステム構成の図である。It is a figure of the system configuration containing the BOWL ProCam system and its periphery. シナリオ(A)におけるユーザ視点映像を示す図である。It is a figure which shows the user viewpoint image | video in scenario (A). シナリオ(B)におけるユーザ視点映像を示す図である。It is a figure which shows the user viewpoint image | video in scenario (B). シナリオ(C)におけるユーザ視点映像を示す図である。It is a figure which shows the user viewpoint image | video in scenario (C). シナリオ(A)における手前側投影面の検出結果を示す図である。It is a figure which shows the detection result of the near side projection surface in scenario (A). シナリオ(B)における手前側投影面の検出結果を示す図である。It is a figure which shows the detection result of the near side projection surface in scenario (B). シナリオ(C)における手前側投影面の検出結果を示す図である。It is a figure which shows the detection result of the near side projection surface in scenario (C). シナリオ(D)において奥行きを変化させたときの手前側投影面の検出結果を示す図である。It is a figure which shows the detection result of the near side projection surface when changing depth in scenario (D).

符号の説明Explanation of symbols

1 カメラ
2 プロジェクタ
3 自蔵式センサ
4 情報処理システム
5 投影面検出手段
6 投影像制御手段
8 無線通信手段
12 光線間引き手段
13 隠蔽領域投影手段
30 キャストシャドウ
31 境界線
32 境界
33 キャストシャドウの幅
40 平行光線
50 総合評価の可視化図
51 視野の広さの評価の可視化図
52 作業領域の見やすさの評価の可視化図
53 首振り動作中の安定性評価の可視化図
54 歩行動作中の安定性評価の可視化図
55 小型携帯端末の装着部位
60 部分領域
100 小型携帯端末
200 手前側投影面
201 奥側投影面
202 キャストシャドウ
203 投影光到達空間
300 投影像
301 CGの映像
302 CGの映像
303 CGの映像
304 アイコン
305 顔写真
400 投影像
450 地図情報
451 左の箱
452 真ん中の箱
453 右の箱
454 線
500 机
600 利用者
601 利用者視点
700 入力画像
701 入力画像
702 入力画像
703 入力画像
800 投影ソース画像
801 投影ソース画像
802 投影ソース画像
DESCRIPTION OF SYMBOLS 1 Camera 2 Projector 3 Self-contained sensor 4 Information processing system 5 Projection surface detection means 6 Projection image control means 8 Wireless communication means 12 Ray thinning means 13 Concealed area projection means 30 Cast shadow 31 Boundary line 32 Boundary 33 Cast shadow width 40 Parallel rays 50 Visualization of overall evaluation 51 Visualization of the evaluation of the width of the field of view 52 Visualization of the evaluation of the visibility of the work area 53 Visualization of the stability evaluation during the swinging motion FIG. 54 Stability evaluation during the walking motion Visualization FIG. 55 Small mobile terminal mounting part 60 Partial area 100 Small mobile terminal 200 Front projection surface 201 Back projection surface 202 Cast shadow 203 Projected light arrival space 300 Projected image 301 CG image 302 CG image 303 CG image 304 Icon 305 Face photo 400 Projection image 450 Map information 451 Left box 452 True Box 453 the right of the box 454 along line 500 desk 600 user 601 user viewpoint 700 input image 701 input image 702 input image 703 input image 800 projected source image 801 projected source image 802 projected source image

Claims (6)

平行光線または焦点深度の深い光線を1画素とした光線群により投影像を投影するプロジェクタと、
前記投影像を含む実空間を撮影するカメラと、
前記カメラにより撮影された画像から投影像を含む実空間の画像を解析し、その解析結果および前記カメラと前記プロジェクタとの位置関係に基づいて、前記プロジェクタに最も近い投影面である手前側投影面とその手前側投影面よりも遠い投影面である奥側投影面との前記画像中での位置および前記手前側投影面と奥側投影面の三次元的な位置関係を検出する投影面検出手段と、
前記プロジェクタを制御して当該プロジェクタにより前記手前側投影面と奥側投影面の双方に焦点の合った投影像を投影しながら、前記手前側投影面と奥側投影面との位置関係およびその変化状況に応じて前記投影像の内容の制御を行う投影像制御手段と、
前記プロジェクタに投影像を供給するデータ処理手段と
を備えることを特徴とする小型携帯端末。
A projector for projecting a projection image with a group of rays of parallel rays or rays having a deep focal depth as one pixel;
A camera for photographing a real space including the projected image;
Analyzing a real-space image including a projection image from an image photographed by the camera, and based on the analysis result and the positional relationship between the camera and the projector, the near-side projection plane that is the projection plane closest to the projector And a projection plane detection means for detecting a position in the image and a three-dimensional positional relationship between the projection plane on the front side and the projection plane on the back side in the image. When,
While controlling the projector to project a projected image focused on both the front projection surface and the rear projection surface by the projector, the positional relationship between the front projection surface and the rear projection surface and the change thereof Projection image control means for controlling the content of the projection image according to the situation;
A small portable terminal comprising data processing means for supplying a projection image to the projector.
請求項1に記載の小型携帯端末において、
前記プロジェクタは、高周波の1次元スキャンミラーと低周波の1次元スキャンミラーを組み合わせた2次元スキャンミラーを用いたレーザプロジェクタであり、
前記高周波のスキャンミラーのスキャン方向は、前記カメラの光学中心と前記プロジェクタの光学中心とを結ぶ直線にほぼ平行である
ことを特徴とする小型携帯端末。
The small portable terminal according to claim 1,
The projector is a laser projector using a two-dimensional scan mirror in which a high-frequency one-dimensional scan mirror and a low-frequency one-dimensional scan mirror are combined.
A small portable terminal, wherein a scanning direction of the high-frequency scanning mirror is substantially parallel to a straight line connecting the optical center of the camera and the optical center of the projector.
請求項1または請求項2に記載の小型携帯端末において、さらに、
当該小型携帯端末を利用者の胸部または肩部に装着するための装着具
を備えることを特徴とする小型携帯端末。
In the small portable terminal according to claim 1 or 2, further,
A small portable terminal comprising a mounting tool for mounting the small portable terminal on a chest or shoulder of a user.
請求項1ないし請求項3のいずれかに記載の小型携帯端末において、さらに、
前記プロジェクタから投影される投影像の各画素を投影する光線群に対して、投影距離の近い投影面に投影される光線の本数を間引いて投影する光線間引き手段を有し、
前記プロジェクタは前記光線間引き手段の制御により投影像を投影し、
前記手前側投影面においても奥側投影面においても、投影像が鮮明に投影される
ことを特徴とする小型携帯端末。
The small portable terminal according to any one of claims 1 to 3, further comprising:
Light beam thinning means for thinning and projecting the number of light beams projected onto a projection surface with a short projection distance with respect to a light beam group for projecting each pixel of the projection image projected from the projector,
The projector projects a projected image under the control of the light thinning means,
A small portable terminal characterized in that a projected image is clearly projected on both the front and back projection planes.
請求項1ないし請求項4のいずれかに記載の小型携帯端末において、さらに、
手前側投影面で隠蔽されることにより利用者からは観測できないが、前記カメラからは観測できる奥側投影面の中の部分領域に対し、直線、点群、円、三角形、格子模様のいずれかの幾何学的なパターン光を前記プロジェクタを制御して投影し、前記カメラにより前記パターン光を撮影することにより、前記部分領域の形状または前記カメラと前記部分領域との距離を計測する隠蔽領域投影手段
を有することを特徴とする小型携帯端末。
The small portable terminal according to any one of claims 1 to 4, further comprising:
It is not observable from the user by being concealed by the front side projection plane, but any of a straight line, a point cloud, a circle, a triangle, or a lattice pattern is applied to the partial area in the back side projection plane that can be observed from the camera. Concealed area projection for measuring the shape of the partial area or the distance between the camera and the partial area by projecting the geometric pattern light by controlling the projector and photographing the pattern light with the camera A small portable terminal comprising: means.
請求項1ないし請求項5のいずれかに記載の小型携帯端末において、
前記カメラは、魚眼カメラであり、さらに、
投影面検出手段には、前記魚眼カメラにより撮影された魚眼画像から透視射影画像への画像変換を行う画像変換手段を備え、
投影面検出手段が、前記画像変換手段により画像変換された透視射影画像に基づいて、手前側投影面と奥側投影面の三次元的な位置関係を検出する
ことを特徴とする小型携帯端末。
The small portable terminal according to any one of claims 1 to 5,
The camera is a fisheye camera, and
The projection surface detection means includes image conversion means for performing image conversion from a fisheye image photographed by the fisheye camera to a perspective projection image,
A small portable terminal, wherein the projection plane detection unit detects a three-dimensional positional relationship between the near side projection plane and the far side projection plane based on the perspective projection image converted by the image conversion unit.
JP2006302405A 2006-09-06 2006-11-08 Small portable terminal Expired - Fee Related JP4747232B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006302405A JP4747232B2 (en) 2006-09-06 2006-11-08 Small portable terminal

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006241062 2006-09-06
JP2006241062 2006-09-06
JP2006302405A JP4747232B2 (en) 2006-09-06 2006-11-08 Small portable terminal

Publications (2)

Publication Number Publication Date
JP2008090807A true JP2008090807A (en) 2008-04-17
JP4747232B2 JP4747232B2 (en) 2011-08-17

Family

ID=39374853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006302405A Expired - Fee Related JP4747232B2 (en) 2006-09-06 2006-11-08 Small portable terminal

Country Status (1)

Country Link
JP (1) JP4747232B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010082547A1 (en) * 2009-01-16 2010-07-22 ブラザー工業株式会社 Head-mounted display
JP2013021389A (en) * 2011-07-07 2013-01-31 Nikon Corp Image display device
EP2571257A1 (en) * 2011-09-14 2013-03-20 Ricoh Company, Ltd. Projector device and operation detecting method
CN103336634A (en) * 2013-07-24 2013-10-02 清华大学 Adaptive hierarchical structure light-based touch detection system and method
JP2013206044A (en) * 2012-03-28 2013-10-07 Denso It Laboratory Inc Information processor
JP2014518596A (en) * 2011-03-29 2014-07-31 クアルコム,インコーポレイテッド Modular mobile connected pico projector for local multi-user collaboration
US9158375B2 (en) 2010-07-20 2015-10-13 Apple Inc. Interactive reality augmentation for natural interaction
JP2015201064A (en) * 2014-04-09 2015-11-12 株式会社東芝 Information processing apparatus, video projection device, information processing method, and program
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
KR101617446B1 (en) 2009-04-10 2016-05-02 엘지이노텍 주식회사 Portable terminal executing laser projection
WO2016129280A1 (en) * 2015-02-13 2016-08-18 日本電気株式会社 Interface device
JP2020098451A (en) * 2018-12-18 2020-06-25 川崎重工業株式会社 Information projection system, control device, and information projection method
JPWO2019176594A1 (en) * 2018-03-16 2021-02-04 富士フイルム株式会社 Projection control device, projection device, projection control method, and projection control program
JP2021021810A (en) * 2019-07-26 2021-02-18 sPods株式会社 Projection system, display controller, and method for projection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1138949A (en) * 1997-07-15 1999-02-12 Sony Corp Plotting device, plotting method, and recording medium
JP2005332309A (en) * 2004-05-21 2005-12-02 Olympus Corp User support device
WO2006025872A2 (en) * 2004-08-27 2006-03-09 International Business Machines Corporation User input apparatus, system, method and computer program for use with a screen having a translucent surface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1138949A (en) * 1997-07-15 1999-02-12 Sony Corp Plotting device, plotting method, and recording medium
JP2005332309A (en) * 2004-05-21 2005-12-02 Olympus Corp User support device
WO2006025872A2 (en) * 2004-08-27 2006-03-09 International Business Machines Corporation User input apparatus, system, method and computer program for use with a screen having a translucent surface

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010164814A (en) * 2009-01-16 2010-07-29 Brother Ind Ltd Head mounted display
WO2010082547A1 (en) * 2009-01-16 2010-07-22 ブラザー工業株式会社 Head-mounted display
KR101617446B1 (en) 2009-04-10 2016-05-02 엘지이노텍 주식회사 Portable terminal executing laser projection
US9158375B2 (en) 2010-07-20 2015-10-13 Apple Inc. Interactive reality augmentation for natural interaction
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
JP2014518596A (en) * 2011-03-29 2014-07-31 クアルコム,インコーポレイテッド Modular mobile connected pico projector for local multi-user collaboration
US9384594B2 (en) 2011-03-29 2016-07-05 Qualcomm Incorporated Anchoring virtual images to real world surfaces in augmented reality systems
JP2013021389A (en) * 2011-07-07 2013-01-31 Nikon Corp Image display device
EP2571257A1 (en) * 2011-09-14 2013-03-20 Ricoh Company, Ltd. Projector device and operation detecting method
CN103002239A (en) * 2011-09-14 2013-03-27 株式会社理光 Projector device and operation detecting method
JP2013206044A (en) * 2012-03-28 2013-10-07 Denso It Laboratory Inc Information processor
CN103336634A (en) * 2013-07-24 2013-10-02 清华大学 Adaptive hierarchical structure light-based touch detection system and method
CN103336634B (en) * 2013-07-24 2016-04-20 清华大学 Based on touching detection system and the method for adaptive layered structured light
JP2015201064A (en) * 2014-04-09 2015-11-12 株式会社東芝 Information processing apparatus, video projection device, information processing method, and program
WO2016129280A1 (en) * 2015-02-13 2016-08-18 日本電気株式会社 Interface device
JPWO2016129280A1 (en) * 2015-02-13 2017-11-30 日本電気株式会社 Interface device
JPWO2019176594A1 (en) * 2018-03-16 2021-02-04 富士フイルム株式会社 Projection control device, projection device, projection control method, and projection control program
JP2020098451A (en) * 2018-12-18 2020-06-25 川崎重工業株式会社 Information projection system, control device, and information projection method
JP7414395B2 (en) 2018-12-18 2024-01-16 川崎重工業株式会社 Information projection system, control device, and information projection control method
JP2021021810A (en) * 2019-07-26 2021-02-18 sPods株式会社 Projection system, display controller, and method for projection

Also Published As

Publication number Publication date
JP4747232B2 (en) 2011-08-17

Similar Documents

Publication Publication Date Title
JP4747232B2 (en) Small portable terminal
US11546505B2 (en) Touchless photo capture in response to detected hand gestures
KR101818024B1 (en) System for the rendering of shared digital interfaces relative to each user&#39;s point of view
US20220124295A1 (en) Marker-based guided ar experience
US20210405772A1 (en) Augmented reality eyewear 3d painting
US20210407205A1 (en) Augmented reality eyewear with speech bubbles and translation
CN104104862A (en) Image processing device and image processing method
US11195341B1 (en) Augmented reality eyewear with 3D costumes
US20240314461A1 (en) Visual-inertial tracking using rolling shutter cameras
WO2015093130A1 (en) Information processing device, information processing method, and program
US20210406542A1 (en) Augmented reality eyewear with mood sharing
Kurata et al. Interaction using nearby-and-far projection surfaces with a body-worn ProCam system
JP2023136239A (en) Information processing device, information processing system, supporting system, and information processing method
Tsai Geometry-aware augmented reality for remote collaboration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090212

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110223

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees