JP2007179565A - Portable equipment - Google Patents

Portable equipment Download PDF

Info

Publication number
JP2007179565A
JP2007179565A JP2007038207A JP2007038207A JP2007179565A JP 2007179565 A JP2007179565 A JP 2007179565A JP 2007038207 A JP2007038207 A JP 2007038207A JP 2007038207 A JP2007038207 A JP 2007038207A JP 2007179565 A JP2007179565 A JP 2007179565A
Authority
JP
Japan
Prior art keywords
content
unit
coordinate
portable device
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007038207A
Other languages
Japanese (ja)
Other versions
JP4330637B2 (en
Inventor
Minoru Nishihata
実 西畑
Nobuhiko Funato
信彦 舟渡
Katsuya Nakagawa
克哉 中川
Azusa Umemoto
あずさ 梅本
Iwao Ishibashi
巌 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007038207A priority Critical patent/JP4330637B2/en
Publication of JP2007179565A publication Critical patent/JP2007179565A/en
Application granted granted Critical
Publication of JP4330637B2 publication Critical patent/JP4330637B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a content expression controller for controlling one or more parameters relating to expressions such as view movement in content without using any precise and expensive position sensor or distance sensor. <P>SOLUTION: This content expression controller is configured to control one or more parameters relating to expressions such as view movement in content without using any precise and expensive position sensor or distance sensor. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は携帯機器に関し、特に、比較的小型の表示画面を用いて比較的大型あるいは1ページあたりの情報量が多いコンテンツを閲覧するための携帯機器に関する。   The present invention relates to a portable device, and more particularly to a portable device for browsing content that is relatively large or has a large amount of information per page using a relatively small display screen.

パーソナルコンピュータやワードプロセッサ、あるいはワークステーションなど(以下「PCなど」)では、通常、比較的大型の画面を備えているため、比較的大型あるいは1ページあたりの情報量が多い電子文書を閲覧する場合に適している。   Personal computers, word processors, workstations, etc. (hereinafter referred to as “PCs”) usually have a relatively large screen, so when viewing electronic documents that are relatively large or have a large amount of information per page. Is suitable.

しかし、1ページあたりの情報量がさらに多い場合は、電子文書の大きさが画面以上になる程度に拡大表示したい場合がある。また、画面の一部に配置した小型のウィンドウに大型の電子文書の一部を表示したい場合もある。このような場合、PCなどでは、表示部分の右端や下端にスクロールバーと呼ばれるユーザインターフェイス部材を設け、マウスなどのポインティングデバイスによる操作を通じて、電子文書上の見える範囲(ビュー)を制御している。その他、一時的にスクロール専用モードに遷移し、マウスのドラッグ操作などによりビュー制御を行なう方法もある。なお、この方法はマウスなどでは好適であるが、画面に対して直接操作するペン型の入力器具では、画面外にドラッグできないため不適である。   However, when the amount of information per page is larger, there is a case where it is desired to enlarge and display the electronic document so that it is larger than the screen. In some cases, it is desired to display a part of a large electronic document in a small window arranged on a part of the screen. In such a case, in a PC or the like, a user interface member called a scroll bar is provided at the right end or lower end of the display portion, and a visible range (view) on the electronic document is controlled through an operation with a pointing device such as a mouse. In addition, there is a method of temporarily changing to the scroll-only mode and performing view control by a mouse drag operation or the like. This method is suitable for a mouse or the like, but is not suitable for a pen-type input device that operates directly on the screen because it cannot be dragged outside the screen.

また、表示される電子文書の拡大/縮小率を制御するためには、数値で指定する方法、メニューから所定の拡大率を選択する方法、スライドバーにより連続的に操作する方法、あるいは、拡大/縮小モードに遷移してポインティングデバイスでクリックすることにより所定の部分を中心に拡大/縮小を行なう方法(いわゆる虫眼鏡ツール)などがある。   In order to control the enlargement / reduction ratio of the electronic document to be displayed, a method of designating numerically, a method of selecting a predetermined enlargement ratio from a menu, a method of operating continuously with a slide bar, or an enlargement / reduction ratio There is a method (so-called magnifying glass tool) for enlarging / reducing around a predetermined portion by transitioning to a reduction mode and clicking with a pointing device.

一方、携帯情報機器においては、机上での操作を想定したマウスなどの使用は好ましくないため、4方向にスクロールするための4個のボタンを設けている場合や、感圧タブレットを張り合わせた表示画面に上記スクロールバーを表示し、上述のペン型の器具で操作する場合などがある。しかしながらこのような方法では、特に電子文書が大型である場合、ビューを任意の場所に移動させたい場合の直感性に欠けることから操作者のストレスの原因になり、また、操作時間が多くかかってしまう。   On the other hand, in a portable information device, it is not preferable to use a mouse or the like that is supposed to be operated on a desk, so there are four buttons for scrolling in four directions, or a display screen with a pressure-sensitive tablet attached. In some cases, the scroll bar is displayed on the screen and operated with the pen-type instrument described above. However, with such a method, especially when the electronic document is large, it is not intuitive when moving the view to an arbitrary location, which causes the operator's stress and takes a lot of operation time. End up.

そこで、たとえば、非特許文献1は、画面の小さい情報機器において電子文書の直感的なスクロール操作を実現するために、情報機器の背面にマウスのボール機構を組み込み、机上を移動すると、その移動量および移動方向に従って表示内容がスクロールするという仕組みを開示している。   Therefore, for example, in Non-Patent Document 1, in order to realize an intuitive scrolling operation of an electronic document in an information device with a small screen, a mouse ball mechanism is incorporated on the back of the information device and the amount of movement is moved when moving on the desk. In addition, a mechanism is disclosed in which display contents are scrolled according to a moving direction.

また、非特許文献1に類似する仕組みとして、非特許文献2では、バーコードリーダとペン型マウスを組み合わせたデバイスを小型情報機器に接続したシステムを用いている。この非特許文献2によると、壁の特定の位置にバーコードを貼り付け、バーコードの位置を基点として壁の表面をデバイスでなぞり、デバイスの変位に応じて小型情報機器の表示部に表示した情報をスクロールさせることにより、あたかも壁の中を覗くような感覚をもたらすという仕組みを開示している。   As a mechanism similar to Non-Patent Document 1, Non-Patent Document 2 uses a system in which a device combining a barcode reader and a pen mouse is connected to a small information device. According to this Non-Patent Document 2, a barcode is pasted at a specific position on the wall, the surface of the wall is traced with the device from the barcode position as a base point, and displayed on the display unit of the small information device according to the displacement of the device. By scrolling the information, a mechanism that makes you feel as if you are looking into the wall is disclosed.

その他、「拡張現実感」(Augmented Realityの訳語。強調現実感、強化現実感、複合現実感などと訳される場合もある)と呼ばれる技術分野では、コンピュータに接続されたカメラにより現実世界を撮影し、撮影された現実世界の画像中における特定の物体に、コンピュータによって生成された仮想的な文書や画像(以下仮想画像)を重ね合わせて表示するという試みがなされている。これによると、カメラと特定の物体の位置関係により、仮想画像の見え方を制御するようなシステムが実現可能となる。   In addition, in the technical field called “Augmented Reality” (translation of Augmented Reality, sometimes translated as Enhanced Reality, Augmented Reality, Mixed Reality, etc.), the real world is photographed with a camera connected to a computer. An attempt has been made to superimpose and display a virtual document or image (hereinafter referred to as a virtual image) generated by a computer on a specific object in a photographed real world image. According to this, it is possible to realize a system that controls the appearance of the virtual image based on the positional relationship between the camera and the specific object.

たとえば非特許文献3では、現実世界に置かれた2次元マトリックスコードの位置を認識し、それに対応付けられた仮想画像の表示位置の制御を行なう手法を開示している。   For example, Non-Patent Document 3 discloses a method of recognizing the position of a two-dimensional matrix code placed in the real world and controlling the display position of a virtual image associated therewith.

また、特許文献1は、カメラから特定の物体(アクセス要素)に付加された識別子までの距離を含む相対位置情報を測定し、距離に応じて識別子に対応する仮想画像の表示内容を変化させる装置を開示している。   Japanese Patent Application Laid-Open No. 2004-228688 measures relative position information including a distance from a camera to an identifier added to a specific object (access element), and changes display contents of a virtual image corresponding to the identifier according to the distance. Is disclosed.

また、特許文献2は、現実世界に設置された複数の標識をカメラで捉え、それらの画面内の位置を認識したうえで仮想画像の表示位置を調整することにより、現実世界の物体とそれに対応する仮想画像の表示位置とのずれを小さくしようとする装置を開示している。
特許第2881973号公報 特開2000−41173号公報 椎尾一郎、「Scroll Display:超小型情報機器のための指示装置」、情報処理学会論文誌、Vol.39, No.5, pp.1448-1454, May 1998年5月, 情報処理学会ISSN 0387-5806 (1997年7月1日受付、1997年12月1日採録) 椎尾一郎、「Scroll Browser:壁の中のブラウザー」、インタラクション’99論文集 ISSN 1344-0640 情報処理学会シンポジウムシリーズ Vol.99, No.4, pp.39-40,1999年3月 暦本純一、「2次元マトリックスコードを利用した拡張現実感の構成手法」、インタラクティブシステムとソフトウェア4 ISBN4-7649-0258-3 日本ソフトウェア科学会WISS'96、田中二郎編、近代科学社
Further, Patent Document 2 captures a plurality of signs installed in the real world with a camera, recognizes the position in the screen, and adjusts the display position of the virtual image, thereby corresponding to the real-world object and the corresponding object. An apparatus that attempts to reduce the deviation from the virtual image display position is disclosed.
Japanese Patent No. 2881973 JP 2000-41173 A Ichiro Shiio, “Scroll Display: Indicating Device for Ultra-compact Information Equipment”, Transactions of Information Processing Society of Japan, Vol.39, No.5, pp.1448-1454, May 1998, Information Processing Society of Japan ISSN 0387- 5806 (Received July 1, 1997, accepted December 1, 1997) Ichiro Shiio, "Scroll Browser: Browser in the Wall", Interaction '99 Proceedings ISSN 1344-0640 IPSJ Symposium Series Vol.99, No.4, pp.39-40, March 1999 Junichi Kyokumoto, “Augmented Reality Construction Method Using 2D Matrix Code”, Interactive System and Software 4 ISBN4-7649-0258-3 Japan Software Science Society WISS'96, edited by Jiro Tanaka, Modern Science

しかしながら、以上説明した従来技術、たとえば、上記非特許文献1では、主に机上での操作を前提としているが、目的のビューの電子文書内での絶対的な位置が既知の場合であっても、ビューの移動には試行錯誤が要求される。   However, in the conventional technology described above, for example, Non-Patent Document 1 described above, it is assumed that the operation is mainly performed on a desk, but even when the absolute position of the target view in the electronic document is known. In order to move the view, trial and error is required.

例えば、電子文書内での絶対的な位置、たとえば「下端の中央」などにビューを移動する場合、操作者は変化する表示内容を目で追いながら同時に機器を移動操作しなければならない。このとき、電子文書の下端を超えるような動作操作を行なった場合を想定すると、主に2種類の対応が考えられる。   For example, when the view is moved to an absolute position in the electronic document, such as “the center of the lower end”, the operator must move the device at the same time while following the changing display contents. At this time, assuming a case where an operation operation is performed so as to exceed the lower end of the electronic document, two types of correspondence are mainly conceivable.

第1は下端を越えた場合、空白を表示すると同時に、超えた距離に応じたビューの座標を維持するという対応である。しかしながら第1の対応では、空白を表示している状態では、電子文書の位置を基準にした現在のビューがどこになるかという見当がつきにくくなるためビューの復帰が困難となる。   First, when the lower end is exceeded, a blank is displayed, and at the same time, the view coordinates corresponding to the exceeded distance are maintained. However, in the first correspondence, in a state where a blank is displayed, it is difficult to determine where the current view is based on the position of the electronic document, so it is difficult to return the view.

第2は下端を越えた場合、画像を下端の状態で静止させるという対応である。しかしながら第2の対応では、電子文書上の原点と机上の原点の対応が失われるため操作者の直感に反し、安定した操作ができなくなる。   Second, when the lower end is exceeded, the image is stopped at the lower end. However, in the second correspondence, since the correspondence between the origin on the electronic document and the origin on the desk is lost, it is contrary to the intuition of the operator and stable operation cannot be performed.

また、非特許文献1において、電子文書として地図を例にとって、同文献の記載に従い「東京と大阪の位置を手がかりに名古屋の部分へスクロールする」(非特許文献1、p.3、左上から10行目)場合を考えてみる。この場合、地図が大きく、最初に東京の位置(第1点)だけが見えている場合、名古屋(第3点)に移動するためには、前提として、あらかじめ大阪の位置(第2点)に移動して、第1点および第2点に対応する、機器の机上の物理的な位置をそれぞれ確認しておく、という準備操作が必要となる。この準備操作中においては、操作者は変化する表示内容を目で追いながら同時に機器を移動させて第2点を探索しなければならないため、目の疲労の原因となり、操作時間も多くかかってしまう可能性がある。その他、机上の操作では、表示部分の物理的な位置を移動させることになるため、操作者は視線で表示部分の位置を追跡せざるを得ないという負担が生じ、目の疲労の原因となる可能性がある。   Further, in Non-Patent Document 1, taking a map as an example of an electronic document, “scrolling to the Nagoya part using the positions of Tokyo and Osaka” (Non-Patent Document 1, p. 3, 10 from the top left) (Line) Consider the case. In this case, if the map is large and only the position of Tokyo (first point) is visible at first, to move to Nagoya (third point), the premise is to move to the position of Osaka (second point) in advance. It is necessary to prepare for moving and confirming the physical positions of the devices on the desk corresponding to the first point and the second point. During this preparatory operation, the operator must search the second point by moving the device at the same time while following the changing display contents, which causes eye fatigue and increases the operation time. there is a possibility. In addition, since the physical position of the display part is moved in the operation on the desk, the operator is forced to track the position of the display part with a line of sight, which causes eye fatigue. there is a possibility.

また、非特許文献1では、出先などで机が無い環境では、手を用いたマウスボールの操作を提案している(非特許文献1、p.3、左下から5行目〜)が、大きな電子文書内でビューを遠い場所に移動させたい場合には、マウスボールを何度も繰り返し回す操作が必要となり、机上での操作に比較して直感性に欠け、操作時間も多くかかってしまう可能性があるという問題がある。   Further, Non-Patent Document 1 proposes a mouse ball operation using a hand in an environment where there is no desk such as a destination (Non-Patent Document 1, p.3, 5th line from the lower left), but it is large. If you want to move the view to a distant place in an electronic document, you will need to rotate the mouse ball over and over again, which is less intuitive and may take more time than on a desk. There is a problem of having sex.

さらに、非特許文献2の方法では、操作デバイスがバーコード(原点)を離れた状態でトラッキングがずれると、再びバーコードに戻る必要がある。トラッキングがずれる原因としては、操作デバイスの向きが一定でなければならない(一定を保つのは困難である)ことと、デバイスが壁面から離れた場合、または壁面に凹凸がある場合などが考えられる。   Furthermore, in the method of Non-Patent Document 2, when tracking is shifted in a state where the operation device leaves the barcode (origin), it is necessary to return to the barcode again. Possible causes of tracking shift include that the direction of the operation device must be constant (it is difficult to maintain constant), the case where the device is separated from the wall surface, or the case where the wall surface is uneven.

また、非特許文献3、特許文献1および特許文献2に開示された発明では、携帯可能なシステムにおいて、特定のオブジェクトに接近してそのビューを精密に制御するための構成については、必ずしも明確でない。   In the inventions disclosed in Non-Patent Document 3, Patent Document 1, and Patent Document 2, in a portable system, the configuration for precisely controlling a view by approaching a specific object is not necessarily clear. .

本発明は、このような問題を解決するためになされたものであって、携帯機器に適し、容易にコンテンツ内のビュー移動等の表現に関するひとつ以上のパラメータの制御を行うことが可能な携帯機器を提供することを目的とする。   The present invention has been made in order to solve such a problem, and is suitable for a mobile device, and can easily control one or more parameters relating to expression such as view movement in content. The purpose is to provide.

この発明の他の目的は、コンテンツに対応する特定の実物体にカメラを接近させてその輪郭が撮影範囲の外となった場合も、表現に関するパラメータを容易に制御することが可能な携帯機器を提供することである。   Another object of the present invention is to provide a portable device capable of easily controlling parameters relating to expression even when a camera is brought close to a specific real object corresponding to content and the outline is outside the shooting range. Is to provide.

本発明のある局面に従うと、操作部と、撮影手段と、表示部と、通信部と、コンテンツを記憶する記憶部と、を備えた携帯機器であって、携帯機器は、コンテンツを表示部に表示する際に、操作部より特定の操作が入力されている間は、撮影手段から入力された入力画像の変化に追随して、コンテンツの表示位置および拡大率のうち少なくとも一方について表示を制御する。   According to an aspect of the present invention, a portable device includes an operation unit, a photographing unit, a display unit, a communication unit, and a storage unit that stores content, and the portable device stores the content in the display unit. When displaying, while a specific operation is input from the operation unit, the display is controlled for at least one of the display position and the enlargement ratio of the content following the change of the input image input from the photographing unit. .

本発明の他の局面に従うと、操作部と、撮影手段と、表示部と、通信部と、コンテンツを記憶する記憶部と、を備えた携帯機器であって、携帯機器は、操作部より特定の操作が入力されている間に、撮影手段にて撮像される被撮像物の座標系において、携帯機器と被撮像物との位置関係が、撮影手段の撮像面に水平なX座標方向ならびにY座標方向のうち少なくともいずれか一方向に変化したことを撮影手段によって入力された入力画像から検出した場合において、コンテンツを表示部に表示する際に、撮影手段から入力された入力画像の変化に追随して、表示されたコンテンツの表示位置をスクロール制御する。   According to another aspect of the present invention, a portable device including an operation unit, a photographing unit, a display unit, a communication unit, and a storage unit for storing content, the portable device is specified from the operation unit. In the coordinate system of the object to be imaged captured by the imaging means while the operation is input, the positional relationship between the portable device and the object to be imaged is such that the X coordinate direction horizontal to the imaging surface of the imaging means and Y When a change in at least one of the coordinate directions is detected from the input image input by the photographing means, the change in the input image input from the photographing means is followed when the content is displayed on the display unit. Then, the display position of the displayed content is scroll-controlled.

本発明のさらに他の局面に従うと、操作部と、撮影手段と、表示部と、通信部と、コンテンツを記憶する記憶部と、を備えた携帯機器であって、携帯機器は、操作部より特定の操作が入力されている間に、撮影手段にて撮像される被撮像物の座標系において、携帯機器と被撮像物との位置関係が、撮影手段の撮像面に垂直なZ座標方向に変化したことを撮影手段によって入力された入力画像から検出した場合において、コンテンツを表示部に表示する際に、表示されたコンテンツの表示倍率を制御する。   According to still another aspect of the present invention, a portable device including an operation unit, a photographing unit, a display unit, a communication unit, and a storage unit for storing content, the portable device is more than an operation unit. While a specific operation is being input, in the coordinate system of the object to be imaged by the imaging unit, the positional relationship between the portable device and the object to be imaged is in the Z coordinate direction perpendicular to the imaging surface of the imaging unit. When the change is detected from the input image input by the photographing unit, the display magnification of the displayed content is controlled when the content is displayed on the display unit.

好ましくは、表示位置を制御されるコンテンツは、通信部により取得したコンテンツである。   Preferably, the content whose display position is controlled is content acquired by the communication unit.

好ましくは、入力画像に含まれる輝度パターンの見かけの動きを検出することによって、入力画像の変化を検出することを特徴とする。   Preferably, a change in the input image is detected by detecting an apparent movement of a luminance pattern included in the input image.

好ましくは、入力画像が含むパターンを照合することによって、入力画像の変化を検出することを特徴とする。   Preferably, a change in the input image is detected by collating patterns included in the input image.

好ましくは、入力画像が、撮影手段の撮像面に対する垂線を中心として回転した場合は、コンテンツの表示の制御を制限する。   Preferably, when the input image is rotated about a perpendicular to the imaging surface of the imaging unit, the display control of the content is limited.

好ましくは、撮影手段を基準とする3次元の座標系において、座標系を構成する3つの座標軸のうち、撮影手段の撮像面に水平な面を構成する2軸のうち少なくともいずれか一軸を中心とする回転が行われたことを入力画像の変化によって抽出した場合において、表示位置の制御を制限する。   Preferably, in a three-dimensional coordinate system based on the photographing unit, out of three coordinate axes constituting the coordinate system, at least one of two axes constituting a plane horizontal to the imaging surface of the photographing unit is the center. When the fact that the rotation is performed is extracted by the change of the input image, the control of the display position is limited.

好ましくは、撮影手段を基準とする3次元の座標系において、座標系を構成する3つの座標軸のうち、撮影手段の撮像面に対する垂線を中心とした、所定の角度以内の回転が行なわれたことを、入力画像の変化によって検出した場合において、コンテンツの表示位置の制御を制限する。   Preferably, in a three-dimensional coordinate system based on the imaging unit, rotation within a predetermined angle centered on a perpendicular to the imaging surface of the imaging unit among the three coordinate axes constituting the coordinate system is performed. Is detected by a change in the input image, the control of the display position of the content is limited.

好ましくは、撮影手段から入力された入力画像を取得する最小時間間隔を制限する。   Preferably, the minimum time interval for acquiring the input image input from the photographing unit is limited.

本発明では、ガイド画像の変化に追随してコンテンツのパラメータ制御が行なわれるので、コンテンツの表示位置などのパラメータをスムーズに制御することができる。とりわけ、対応関係情報として二次元以上の座標情報を取得して用いると、たとえば表示位置と拡大率など、異なるパラメータを同時あるいは連続的に制御することが可能となる。   In the present invention, parameter control of the content is performed following the change of the guide image, so that parameters such as the display position of the content can be controlled smoothly. In particular, when two-dimensional or more coordinate information is acquired and used as correspondence information, different parameters such as a display position and an enlargement ratio can be controlled simultaneously or continuously.

また、携帯機器が撮影手段をさらに備える場合は、操作者が撮影手段と基準物体との位置関係を自在に操作しながら基準物体を撮影してガイド画像として用いることにより、パラメータを直感的かつ瞬時に制御することが可能となる。   In addition, when the portable device further includes a photographing unit, the operator can intuitively and instantaneously capture the parameters by photographing the reference object and using it as a guide image while freely operating the positional relationship between the photographing unit and the reference object. It becomes possible to control to.

また、携帯機器を動かさずに撮影対象物のみを動かすことによってもパラメータを制御することができ、コンテンツが画像の場合は操作者の視線の移動による疲労を軽減することができる。   In addition, the parameters can be controlled by moving only the object to be photographed without moving the portable device, and when the content is an image, fatigue due to movement of the operator's line of sight can be reduced.

[実施の形態1]
以下に、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返さない。
[Embodiment 1]
Embodiments of the present invention will be described below with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本実施の形態にコンテンツ表現制御装置の具体例を示す図である。
本実施の形態においてはコンテンツ表現制御装置の一例として、携帯電話機のハードウェアを用いるものとして説明を行う。
FIG. 1 is a diagram illustrating a specific example of a content expression control apparatus according to the present embodiment.
In the present embodiment, as an example of the content expression control apparatus, description will be made assuming that the hardware of a mobile phone is used.

図1(a)は携帯電話機の前面、図1(b)は携帯電話機の背面をそれぞれ示している。携帯電話機は、筐体101と、LCD(Liquid Crystal Display)102と、操作ボタン群103と、CCD(Charge-Coupled Devices)カメラ106と、マイクロフォン105と、スピーカ104とを備える。   1A shows the front surface of the mobile phone, and FIG. 1B shows the back surface of the mobile phone. The mobile phone includes a housing 101, an LCD (Liquid Crystal Display) 102, an operation button group 103, a CCD (Charge-Coupled Devices) camera 106, a microphone 105, and a speaker 104.

次に、図2に、本実施の形態におけるコンテンツ表現制御装置のハードウェア構成の具体例を示す。   Next, FIG. 2 shows a specific example of the hardware configuration of the content expression control apparatus according to the present embodiment.

図2を参照して、本実施の形態におけるコンテンツ表現制御装置200は、CPU(Central Processing Unit)等から構成されて、装置全体を制御する制御部22と、装置の
外部に対してデータの入出力を行なう入出力部24と、ROM(Read Only Memory)やRAM(Random Access Memory)などから構成されて、制御部22において実行されるプログラムや、そのプログラムの中間データまたは他のコンピュータから受信したデータ等を記憶する記憶部23とを含む。
Referring to FIG. 2, content expression control apparatus 200 in the present embodiment is configured by a CPU (Central Processing Unit) and the like, and includes a control unit 22 that controls the entire apparatus, and data input to the outside of the apparatus. An input / output unit 24 that performs output and a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The program executed in the control unit 22, intermediate data of the program, or received from another computer And a storage unit 23 for storing data and the like.

さらに上述の入出力部24は、「1」、「2」などの数字ボタンおよびメニュー項目指示・選択ボタンなどを含む操作部241と、ユーザに情報を表示するLCDなどの表示部242と、画像を入力するCCDカメラなどの画像入力部243と、他の装置と通信するための通信部244と、音声を入力するマイクロフォンなどの音声入力部245と、音声を出力するスピーカなどの音声出力部246とを含む。   Further, the input / output unit 24 includes an operation unit 241 including numeric buttons such as “1” and “2” and menu item instruction / selection buttons, a display unit 242 such as an LCD for displaying information to the user, and an image. An image input unit 243 such as a CCD camera for inputting a sound, a communication unit 244 for communicating with other devices, a sound input unit 245 such as a microphone for inputting sound, and a sound output unit 246 such as a speaker for outputting sound. Including.

なお、図2に示されるハードウェア構成は、一般的な携帯電話のハードウェア構成であって、本発明にかかるコンテンツ表現制御装置のハードウェア構成は、図2に示されるハードウェア構成に限定されるものではない。   Note that the hardware configuration shown in FIG. 2 is a general mobile phone hardware configuration, and the hardware configuration of the content expression control device according to the present invention is limited to the hardware configuration shown in FIG. It is not something.

たとえば、図3は、本発明にかかるコンテンツ表現制御装置の最小構成を示す図である。図3に示したコンテンツ表現制御装置200bは、入出力部24bは対象となるコンテンツの表現に関するパラメータ(表示部分の位置・向き・表示倍率・時間軸における再生時点他、例を下記各実施例に示す)を制御するためのデータを生成する表現制御データ生成部242bと、ガイド画像データを入力する画像データ入力部243bとを含む。なお、記憶部23bの内部構造は23と同様であるので省略している。この構成では、画像の入出力を行なうLCD102やCCDカメラ106は、本発明にかかるコンテンツ表現制御装置200bの外部にあって使用時に接続することとしてもよい。   For example, FIG. 3 is a diagram showing a minimum configuration of the content expression control device according to the present invention. In the content expression control device 200b shown in FIG. 3, the input / output unit 24b has parameters related to expression of the target content (position of the display portion, orientation, display magnification, playback time point on the time axis, etc. An expression control data generation unit 242b that generates data for controlling the image data) and an image data input unit 243b that inputs guide image data. The internal structure of the storage unit 23b is the same as that of 23, and is omitted. In this configuration, the LCD 102 and the CCD camera 106 for inputting and outputting images may be connected to the outside of the content expression control apparatus 200b according to the present invention when in use.

次に、図4は、本実施の形態におけるコンテンツ表現制御装置の機能構成を示すブロック図である。図4を参照して、本実施の形態におけるコンテンツ表現制御装置は、表現を制御するための基準物体が撮影されたガイド画像データ311を取得する画像データ取得部301と、基準物体に対するガイド画像の位置や拡大/縮小率などの対応関係情報を取得する対応関係情報取得部302と、取得された対応関係情報に基づいて、コンテンツのビューの左上の座標や拡大率など、表現に関するパラメータを制御するためのデータを生成する表現制御データ生成部303と、表現制御データをもとにして入力コンテンツ312の表現に関するパラメータを制御して出力データ313として出力するパラメータ制御部304とを含んで構成される。画像データ取得部301の機能は、たとえば、図2の画像入力部243により実現され、それ以外の機能は、制御部22が、記憶部23に記憶されるプログラムを読出し、そのプログラムを実行して図2に示されるハードウェア構成の各部を制御することによって発揮される。例えば、記憶部23に記憶されるプログラムによって、制御部22は、特定の操作ボタンが押されている間のみ画像データを取得し表現制御データを生成するように制御してもよい。出力データ313が、たとえば、図2の表示部242に与えられる。   Next, FIG. 4 is a block diagram showing a functional configuration of the content expression control device according to the present embodiment. Referring to FIG. 4, the content expression control apparatus according to the present embodiment includes an image data acquisition unit 301 that acquires guide image data 311 in which a reference object for controlling expression is captured, and a guide image for the reference object. A correspondence information acquisition unit 302 that acquires correspondence information such as a position and an enlargement / reduction ratio, and controls parameters related to expression, such as the upper left coordinates of the content view and the enlargement ratio, based on the acquired correspondence information. An expression control data generation unit 303 that generates data for the control, and a parameter control unit 304 that controls parameters related to the expression of the input content 312 based on the expression control data and outputs the parameters as output data 313. . The function of the image data acquisition unit 301 is realized by, for example, the image input unit 243 in FIG. 2, and the other functions are performed by the control unit 22 reading a program stored in the storage unit 23 and executing the program. This is achieved by controlling each part of the hardware configuration shown in FIG. For example, according to a program stored in the storage unit 23, the control unit 22 may control to acquire image data and generate expression control data only while a specific operation button is pressed. The output data 313 is given to the display unit 242 in FIG. 2, for example.

次に、図5に、上記ガイドとなる画像の元になるパターンを印刷したガイドシート401の具体例を示す。ガイドシート401は、その表面を含む平面上のある点を原点にした二次元の座標を示す座標指示マーカー402が多数印刷されたものである。   Next, FIG. 5 shows a specific example of a guide sheet 401 on which a pattern from which an image serving as the guide is based is printed. The guide sheet 401 is printed with a large number of coordinate indicating markers 402 indicating two-dimensional coordinates with a certain point on a plane including the surface as the origin.

ガイドシート401上の各数値403は、各座標指示マーカーの横軸に対応する値、す
なわちX座標をわかりやすく示すための目盛りであり、たとえば”10”は10×256というX座標を示している。同様に、ガイドシート401上の各数値404は、Y座標をわかりやすく示すため目盛りである。これらの目盛りの数値403および404は参考として付与したものであって、本実施の形態に関して必ずしも必要なものではない。
Each numerical value 403 on the guide sheet 401 is a value corresponding to the horizontal axis of each coordinate indicating marker, that is, a scale for clearly indicating the X coordinate. For example, “10” indicates an X coordinate of 10 × 256. . Similarly, each numerical value 404 on the guide sheet 401 is a scale for easily indicating the Y coordinate. These scale values 403 and 404 are given for reference, and are not necessarily required for the present embodiment.

図6に座標指示マーカー402の詳細な構造の例を示す。
図6(a)は、座標表示マーカー402の一例のパターン506を示す。座標指示マーカーパターン506は、認識の基準となる基準パターン501と、基準パターンの中心位置のX座標およびY座標の値をそれぞれ表す座標情報パターン504および505と、それらの座標情報パターンが存在する方向を示す方向指示子502とを含む。
FIG. 6 shows an example of the detailed structure of the coordinate indicating marker 402.
FIG. 6A shows an example pattern 506 of the coordinate display marker 402. The coordinate instruction marker pattern 506 includes a reference pattern 501 that serves as a reference for recognition, coordinate information patterns 504 and 505 that respectively represent the values of the X coordinate and the Y coordinate of the center position of the reference pattern, and directions in which the coordinate information patterns exist. And a direction indicator 502 indicating.

図6(b)は各座標情報パターンと座標値との対応表である。図6(b)を参照して、座標値は16進数で示している。たとえば、“0x100”は16進数の100すなわち十進数の256という座標値を示しており、対応する座標情報パターン511の右下角部分が塗りつぶされている。座標情報パターンの右下角、左下角、右上角、左上角、の各部分は、座標値を二進数で表現した場合の下位から数えた第9ビット、第10ビット、第11ビット、第12ビット、をそれぞれ表現している。例えば図6(a)では、基準パターン501の中心座標(X,Y)は(0x200、0x100)であることを示す。すなわち、図5に戻って、各座標指示マーカー(402など)はシート上で各々が異なる二次元の座標(X,Y)を表現している。   FIG. 6B is a correspondence table between coordinate information patterns and coordinate values. With reference to FIG. 6B, the coordinate values are shown in hexadecimal. For example, “0x100” indicates a coordinate value of 100 in hexadecimal, that is, 256 in decimal, and the lower right corner of the corresponding coordinate information pattern 511 is filled. The lower right corner, lower left corner, upper right corner, and upper left corner of the coordinate information pattern are the ninth bit, the tenth bit, the eleventh bit, and the twelfth bit counted from the lower order when the coordinate value is expressed in binary. , Respectively. For example, FIG. 6A shows that the center coordinates (X, Y) of the reference pattern 501 are (0x200, 0x100). That is, returning to FIG. 5, each coordinate indicating marker (402, etc.) expresses two-dimensional coordinates (X, Y) that are different on the sheet.

次に、本実施の形態におけるコンテンツ表現制御装置において、コンテンツの閲覧制御を実行する際の処理について、図7、図8、図9、および図10を参照して説明する。   Next, processing when content browsing control is executed in the content expression control apparatus according to the present embodiment will be described with reference to FIG. 7, FIG. 8, FIG. 9, and FIG.

図7に、本実施の形態におけるコンテンツ表現制御を実行する際の処理の流れをフローチャートで示す。   FIG. 7 is a flowchart showing the flow of processing when executing content expression control according to the present embodiment.

図7を参照して、始めに、ステップS01でガイド画像データが取得される。ガイド画像データとは、例えば図5を参照して、401のようなガイドシートの部分領域700をCCDカメラ106によって撮影し、撮影した画像の各点の輝度を画像入力部243の機能によりディジタルデータの配列に変換したものである。なお、本実施の形態では説明の簡略化のためガイド画像データはモノクロームであり、ガイドシート401とビュー700はCCDカメラの(複数軸を中心とした)回転、ビューの中心と周辺との距離の差、レンズの特性、シートの歪みなどによるずれがないものと仮定する。(実際にはこれらに対して補正処理が必要になる場合がある。)
次にステップS02でガイド画像データの輝度とコントラストが補正される。例えばガイド画像データを構成する各画素の輝度の平均値と分散がそれぞれ一定の値に近くなるように補正すると次のステップの処理が容易になる場合がある。
Referring to FIG. 7, first, guide image data is acquired in step S01. For example, referring to FIG. 5, the guide image data is obtained by photographing a partial area 700 of a guide sheet 401 such as 401 with the CCD camera 106, and calculating the luminance of each point of the photographed image with the function of the image input unit 243. It is converted to the array of. In this embodiment, for simplification of explanation, the guide image data is monochrome, and the guide sheet 401 and the view 700 are rotated by the CCD camera (centered on a plurality of axes), and the distance between the center of the view and the periphery is changed. It is assumed that there is no shift due to differences, lens characteristics, sheet distortion, and the like. (Actually, correction processing may be necessary for these.)
In step S02, the brightness and contrast of the guide image data are corrected. For example, if correction is performed so that the average value and variance of the luminance of each pixel constituting the guide image data are close to a certain value, the processing in the next step may be facilitated.

次のステップS03ではガイド画像データが2値化される。すなわち、例えば各画素の輝度の値が一定の閾値以上のものを1、閾値未満のものを0、というそれぞれの値に変換する。   In the next step S03, the guide image data is binarized. That is, for example, the value of the luminance value of each pixel is converted to a value of 1 if it is greater than or equal to a certain threshold, and 0 if it is less than the threshold.

次にステップS04で座標指示マーカーの探索を行ない、ガイド画像データ内に存在する座標指示マーカー画像の左端の基準パターン(図6では501)の中心位置の座標データをリストアップする。ここでいう座標データはガイドシート401上の座標情報のことではなく、ガイド画像データ700の左上の原点を基準にした座標情報のことである。なお、座標指示マーカーの基準パターンの探索については如何なる方法を用いてもよいが、その一例については後述する。このステップS04により、図8の部分領域700内の
座標指示マーカーの基準パターンの中心位置の座標データの大部分がリストアップされる。
Next, in step S04, the coordinate pointing marker is searched, and the coordinate data of the center position of the reference pattern (501 in FIG. 6) at the left end of the coordinate pointing marker image existing in the guide image data is listed. The coordinate data here is not coordinate information on the guide sheet 401 but coordinate information based on the upper left origin of the guide image data 700. Note that any method may be used for searching the reference pattern of the coordinate indicating marker, and an example thereof will be described later. By this step S04, most of the coordinate data of the center position of the reference pattern of the coordinate indicating marker in the partial area 700 of FIG. 8 is listed.

但し、一定の仮想的な境界線704より右の基準パターンはリストアップしない。なぜなら704より右の基準パターン、例えば703はそれ自身が保持する座標情報パターンが画面外となり、後のステップS05に用いることが出来ないからである。すなわちステップS04では、701を始めとする9行×3列=27個の座標指示マーカーに関するガイド画像データ内の座標データがリストアップされる。   However, the reference pattern to the right of the certain virtual boundary line 704 is not listed. This is because the coordinate information pattern held by the reference pattern on the right side of 704, for example, 703, is outside the screen and cannot be used in the subsequent step S05. That is, in step S04, coordinate data in the guide image data relating to 9 rows × 3 columns = 27 coordinate indicating markers including 701 is listed.

次にステップS05では、ステップS04でリストアップされた座標指示マーカーのうち、重要マーカーを選択・決定する。重要マーカーとは、ガイドシート401内の原点を基準とした、ガイド画像データ700の位置(すなわち左上の座標および領域の大きさ)を特定するために必要な最小限の座標指示マーカーのことである。ここでは、リストアップされた座標データについて、X座標およびY座標がともに最小のもの801および、ともに最大のもの802、の2個を重要マーカーとして決定する。ここでは回転などによるずれがないものと仮定する。この場合は、重要マーカーの個数は2個で十分である。   In step S05, an important marker is selected / determined among the coordinate indicating markers listed in step S04. The important marker is a minimum coordinate indicating marker necessary for specifying the position of the guide image data 700 (that is, the upper left coordinate and the area size) with reference to the origin in the guide sheet 401. . Here, of the coordinate data listed, two of the coordinate data 801 having the smallest X coordinate and the Y coordinate and the largest data 802 are determined as important markers. Here, it is assumed that there is no shift due to rotation or the like. In this case, two important markers are sufficient.

図9は、ガイド画像データ中の重要マーカーのみを示した図である。図9を参照して、ガイド画像データ800の左上角を原点として、マーカー801の基準パターンの中心座標は(X1,X1)であり、またマーカー802の基準パターンの中心座標は(X2,X2)であることを示している。次にステップS06では、各重要マーカーに記載された座標値(ガイドシートの原点を基準とした座標値)を読み取る。重要マーカー801内の座標情報パターンを図6(b)の表と照合すると、16進数で(0x200,0x200)すなわち10進数で(512,512)という座標値を持つことがわかる。同様に重要マーカー802は16進数で(0xA00,0x600)すなわち10進数で(2560,1536)という座標値を持つことがわかる。なお、座標値読み取りの詳細な手順は後述する。   FIG. 9 is a diagram showing only important markers in the guide image data. Referring to FIG. 9, with the upper left corner of guide image data 800 as the origin, the center coordinates of the reference pattern of marker 801 are (X1, X1), and the center coordinates of the reference pattern of marker 802 are (X2, X2). It is shown that. Next, in step S06, coordinate values (coordinate values based on the origin of the guide sheet) described in each important marker are read. When the coordinate information pattern in the important marker 801 is compared with the table of FIG. 6B, it can be seen that the coordinate value is (0x200, 0x200) in hexadecimal, that is, (512, 512) in decimal. Similarly, it can be seen that the important marker 802 has a coordinate value of (0xA00, 0x600) in hexadecimal, that is, (2560, 1536) in decimal. The detailed procedure for reading coordinate values will be described later.

ここで、図10に、本実施の形態におけるコンテンツ(電子地図)およびコンテンツのビューの例を示す。   Here, FIG. 10 shows an example of content (electronic map) and content view in the present embodiment.

図7において、次のステップS07では、図10を参照してコンテンツ900の一部をLCD102に表示するための表示範囲901が算出される。コンテンツ900(電子地図)上の各座標はガイドシート401上の各座標に対応しているものとする。ここでビュー901の左上の頂点902のコンテンツ上の座標(Xp,Yp)と右下の頂点903のコンテンツ上の座標(Xq,Yq)を求める。図9および図10に付与された変数を用いると、以下のとおりとなる。   In FIG. 7, in the next step S07, a display range 901 for displaying a part of the content 900 on the LCD 102 is calculated with reference to FIG. Assume that each coordinate on the content 900 (electronic map) corresponds to each coordinate on the guide sheet 401. Here, the coordinates (Xp, Yp) on the content of the upper left vertex 902 of the view 901 and the coordinates (Xq, Yq) on the content of the lower right vertex 903 are obtained. When the variables given in FIGS. 9 and 10 are used, the following is obtained.

Xp=(X2・Xa−X1・Xb)/(X2−X1)
Yp=(Y2・Ya−Y1・Yb)/(Y2−Y1)
Xq=Xp+Xv・(Xa−Xp)/X1
Yq=Yp+Yv・(Ya−Yp)/Y1
右辺の変数の値はいずれもこれまでのステップで算出済である。
Xp = (X2, Xa-X1, Xb) / (X2-X1)
Yp = (Y2, Ya-Y1, Yb) / (Y2-Y1)
Xq = Xp + Xv. (Xa-Xp) / X1
Yq = Yp + Yv. (Ya-Yp) / Y1
The value of the variable on the right side has been calculated in the previous steps.

次にステップS08ではコンテンツのビューの切り出しおよび表示が行なわれる。例えばコンテンツ900がビットマップデータであるとすると、表示用メモリの各画素に対応するコンテンツ上の各点の輝度データが切り出され、表示用メモリに転送される。表示用メモリとガイド画像データは必ずしも同一の解像度である必要はないが、ここでは簡便のために同一の解像度であるとすると、例えば表示用メモリ内のある画素の座標(Xw,Yw)に対応するコンテンツ内の座標(Xr,Yr)は、次の式により計算され、表示用
メモリ内の(Xw,Yw)に対応するアドレスに転送され、LCD102における表示に用いられる。
In step S08, the content view is cut out and displayed. For example, assuming that the content 900 is bitmap data, luminance data at each point on the content corresponding to each pixel of the display memory is cut out and transferred to the display memory. The display memory and the guide image data do not necessarily have the same resolution. However, for the sake of simplicity, the display memory and the guide image data correspond to, for example, the coordinates (Xw, Yw) of a certain pixel in the display memory. The coordinates (Xr, Yr) in the content to be calculated are calculated by the following formula, transferred to an address corresponding to (Xw, Yw) in the display memory, and used for display on the LCD 102.

Xr=Xw・(Xq−Xp)/Xv+Xp
Yr=Yw・(Yq−Yp)/Yv+Yp
なお、コンテンツ900がベクトルデータであるとすると、コンテンツ内の各特徴点の座標データ(Xr,Yr)は、次の式によって表示用メモリ内の対応する画素の座標(Xw,Yw)に変換することができる。
Xr = Xw. (Xq-Xp) / Xv + Xp
Yr = Yw · (Yq−Yp) / Yv + Yp
If the content 900 is vector data, the coordinate data (Xr, Yr) of each feature point in the content is converted to the coordinates (Xw, Yw) of the corresponding pixel in the display memory by the following equation. be able to.

Xw=Xv・(Xr−Xp)/(Xq−Xp)
Yw=Yv・(Yr−Yp)/(Yq−Yp)
ベクトルデータの場合は、次いで輝度データを転送する代わりに、求められた座標群を元にして表示用メモリ上に図形データのレンダリングが行なわれる。このとき、図形が画面外となる部分はクリッピング処理により除外する。最後にステップS09では終了の指示が検出されているかどうかによって分岐し、検出されていない場合はステップS01に戻って繰り返し、検出されている場合は処理を終了する。
Xw = Xv. (Xr-Xp) / (Xq-Xp)
Yw = Yv · (Yr−Yp) / (Yq−Yp)
In the case of vector data, instead of transferring luminance data, graphic data is rendered on the display memory based on the obtained coordinate group. At this time, the portion where the figure is outside the screen is excluded by the clipping process. Finally, in step S09, the process branches depending on whether or not an end instruction is detected. If not detected, the process returns to step S01 and repeats. If detected, the process ends.

ここで上述のステップS04における、座標指示マーカーの探索方法の一例について図11(a)〜(c)を参照して説明する。   Here, an example of the search method of the coordinate indicating marker in the above-described step S04 will be described with reference to FIGS.

図11(b)は座標指示マーカーの左端にある基準パターン501を数値の二次元配列によって表現したものである。すなわち黒い部分は0、白い部分は1でそれぞれ表現している。図11(a)はステップS03で2値化されたガイド画像データの各画素を左上から右下へ順に走査し、基準パターン付近を中心として周囲計5×5画素を取得したデータの一例である。   FIG. 11B represents the reference pattern 501 at the left end of the coordinate indicating marker by a two-dimensional array of numerical values. That is, the black part is represented by 0, and the white part is represented by 1. FIG. 11A is an example of data obtained by scanning each pixel of the guide image data binarized in step S03 in order from the upper left to the lower right, and acquiring a total of 5 × 5 pixels around the reference pattern. .

図11(a)では、本来0であるべき画素が1となっていたり、また逆の場合もあり、本来の基準パターン図11(b)とは誤差が出ている。このように、カメラで撮影した画像データでは、ノイズの影響や位置のずれなどにより、誤差が発生することが多い。   In FIG. 11A, the pixel that should originally be 0 is 1 or vice versa, which is an error from the original reference pattern FIG. 11B. As described above, in the image data captured by the camera, an error often occurs due to the influence of noise, position shift, and the like.

ここで図11(a)の各要素から図11(b)の対応する各要素を差し引いた結果の配列が図11(c)である。   Here, FIG. 11C shows an array resulting from subtracting the corresponding elements in FIG. 11B from the elements in FIG.

図11(c)において、各要素の絶対値の総和を計算すると3となる。この値はパターン類似度の評価値とすることができ、この評価値が小さいほど図11(a)の中心は基準パターンの中心に近いと評価することができる。   In FIG. 11C, the total sum of the absolute values of the elements is 3. This value can be used as an evaluation value of pattern similarity, and it can be evaluated that the smaller the evaluation value is, the closer the center of FIG. 11A is to the center of the reference pattern.

たとえば、ある座標を中心として計算したこの値が一定の閾値以下の場合、その座標を基準パターンの中心座標の候補とし、その周囲にある計N×N画素以内で評価値が最小となる座標を上記リストアップの対象とすればよい。   For example, if this value calculated around a certain coordinate is below a certain threshold value, that coordinate is a candidate for the central coordinate of the reference pattern, and the coordinate whose evaluation value is minimum within a total of N × N pixels around that coordinate is selected. What is necessary is just to make it the object of the said list-up.

なお、実際はCCDカメラとガイドシートとの距離が一定ではないため、図11(b)のパターンは、ガイド画像内のひとつの画素を中心として、大きさを変えて複数回照合することが好ましい。図11(b)は5×5画素であるが、たとえばこの他、7×7画素、9×9画素などの相似形に近いパターンで照合するとよい。ここでそれぞれ求めた、各要素の差の絶対値の総和をそれぞれのパターンの画素数で除算した値を評価値として用いることができる。これにより、CCDカメラとガイドシートとのおおよその距離を推定することも可能となる。なお、本実施例では、ガイド画像を2値化したパターンで照合しているが、必ずしも2値化する必要はなく、輝度の階調を伴ったガイド画像を用いて照合してもよい。   In practice, since the distance between the CCD camera and the guide sheet is not constant, it is preferable that the pattern in FIG. 11B is collated a plurality of times while changing the size around one pixel in the guide image. Although FIG. 11B shows 5 × 5 pixels, for example, it is better to collate with patterns similar to similar shapes such as 7 × 7 pixels and 9 × 9 pixels. A value obtained by dividing the sum of the absolute values of the differences between the elements obtained here by the number of pixels of each pattern can be used as the evaluation value. This also makes it possible to estimate the approximate distance between the CCD camera and the guide sheet. In this embodiment, the guide image is collated with a binarized pattern. However, it is not always necessary to binarize, and the guide image may be collated using a luminance image with a gradation of luminance.

ここで、前述のステップS06において、重要マーカーに記載されたガイドシート上の座標値を読み取る詳細な方法について、図12を参照して説明する。   Here, a detailed method of reading the coordinate value on the guide sheet described in the important marker in the above-described step S06 will be described with reference to FIG.

図12は、ガイド画像内の重要マーカーのひとつの例を示し、黒丸は黒い画素、白丸は白い画素がそれぞれの位置に存在していることを示している。   FIG. 12 shows an example of an important marker in the guide image, where a black circle indicates a black pixel and a white circle indicates that a white pixel exists at each position.

前述のステップS04において基準パターンの中心点1103のガイド画像内の座標が既に求められている。中心点1103を起点として1方向およびその反対方向(ここでは左右それぞれの方向)に各画素を走査すると、それぞれ「黒、白、黒」というパターンが検出される。このそれぞれのパターンの端となる黒い点1101から黒い点1105までの距離が、基準パターンの見かけの大きさu(図12に示す)であると認識される。   In step S04 described above, the coordinates in the guide image of the center point 1103 of the reference pattern have already been obtained. When each pixel is scanned in one direction starting from the center point 1103 and in the opposite direction (here, left and right directions), patterns of “black, white, and black” are detected. It is recognized that the distance from the black point 1101 to the end of each pattern to the black point 1105 is the apparent size u (shown in FIG. 12) of the reference pattern.

さらにある方向(ここでは右)への走査を進めると、上下を白い領域に挟まれた黒い領域上の点1106が発見される。これにより、中心点1103を基準として1106の方向にガイドシート上の座標情報が存在することが認識される。   When the scanning in a certain direction (right here) is further advanced, a point 1106 on a black area sandwiched between white areas on the top and bottom is found. Thereby, it is recognized that the coordinate information on the guide sheet exists in the direction 1106 with the center point 1103 as a reference.

点1105から引き続き右に走査すると、再び「黒、白、黒」というパターンが検出される。このパターンの端となる黒い点1108の先に座標情報が存在する。点1101から点1108までの距離は、ほぼ2u(図示)となるはずであり、この値に近いほど座標指示マーカーの認識精度が高いと判断することができ、逆にこの値がある閾値より外れていると、認識が失敗したと判断することができる。   When scanning rightward from the point 1105, the pattern of “black, white, black” is detected again. Coordinate information exists ahead of the black dot 1108 that is the end of the pattern. The distance from the point 1101 to the point 1108 should be approximately 2u (illustrated). The closer to this value, the higher the recognition accuracy of the coordinate pointing marker, and conversely, this value deviates from a certain threshold value. It can be determined that recognition has failed.

失敗した場合はエラー処理として以前のいずれかのステップに戻ることになる。例えばS05に戻って重要マーカーが別のものに選びなおすなどの処理を行なうとよい。   If it fails, it returns to one of the previous steps as error processing. For example, it is good to return to S05 and perform processing such as selecting another important marker.

なお、このようなエラー処理は本実施例の本質ではないため、図7のフローチャートからは省略している。   Note that such error processing is not the essence of the present embodiment, and is therefore omitted from the flowchart of FIG.

次に、マーカーの左端から2.5uの点1109を中心として右下、左下、右上、左上それぞれの方向の距離約0.3uと画素を調べると、点1103に対応するガイドシート上のX座標を表すパターンを認識することができる。同様にマーカーの左端から3.5uの点1110を中心として画素を調べると点1103に対応するガイドシート上のY座標を表すパターンを認識することができる。これらのパターンがどのような座標値を表すかという対応表は、図6(b)の通りである。   Next, when the pixel is examined with a distance of about 0.3u in the direction of the lower right, lower left, upper right, and upper left centering on the point 1109 of 2.5u from the left end of the marker, the X coordinate on the guide sheet corresponding to the point 1103 Can be recognized. Similarly, when a pixel is examined centering on a point 1110 at 3.5u from the left end of the marker, a pattern representing the Y coordinate on the guide sheet corresponding to the point 1103 can be recognized. A correspondence table showing what coordinate values these patterns represent is as shown in FIG.

以上の説明のように、実施の形態1では、ガイドシートとCCDカメラの位置関係により、少なくとも2つの座標指示マーカー(但しそれぞれのX座標とY座標のいずれもが同一でないもの)が撮影範囲内にあれば、コンテンツをガイドシートの位置に対応させて表示することができる。   As described above, in the first embodiment, at least two coordinate indicating markers (however, the X coordinate and the Y coordinate are not the same) are within the imaging range due to the positional relationship between the guide sheet and the CCD camera. If so, the content can be displayed in correspondence with the position of the guide sheet.

実施の形態1では、図7のフローチャートに示すように繰り返し処理され、ガイドシートとCCDカメラの位置関係が刻々と変化する場合でも、その変化に追随して処理が行なわれるので、コンテンツのビュー制御、すなわちスクロールやズーム操作をスムーズに行なうことができる。とりわけ、スクロールとズーム操作を同時あるいは連続的に行なうことが可能となる。また、ガイドシートの特定の位置を撮影することにより、ビューを直感的かつ瞬時に移動することが可能となる。なお、携帯電話装置を動かさずにガイドシートのみを動かすことによってもビューを制御することができ、操作者の視線の移動による疲労を軽減することができる。   In the first embodiment, as shown in the flowchart of FIG. 7, even when the positional relationship between the guide sheet and the CCD camera changes every moment, the processing is performed following the change. That is, scrolling and zooming operations can be performed smoothly. In particular, scrolling and zooming operations can be performed simultaneously or continuously. Further, by photographing a specific position of the guide sheet, the view can be moved intuitively and instantaneously. The view can also be controlled by moving only the guide sheet without moving the mobile phone device, and fatigue due to movement of the operator's line of sight can be reduced.

なお、コンテンツの仮想的な大きさは、ガイドシートに印刷された座標情報に依存する。ここで、精度の高いビュー制御のためにはガイドシート中の実際の長さに対して対応する座標の変化が大きい(すなわち全体として大きい)ガイドシートを用いるとよいし、少ない動作で広範囲のビュー制御を行なうためには座標の変化が小さい(すなわち全体として小さい)ガイドシートを用いるとよい。このように実際の長さに対する座標の変化が異なるガイドシートを複数用意して用いてもよいし、プログラム内で座標情報に特定の係数を掛けることにより座標の変化を論理的に変更してもよい。   Note that the virtual size of the content depends on the coordinate information printed on the guide sheet. Here, for high-accuracy view control, it is preferable to use a guide sheet whose change in coordinates corresponding to the actual length in the guide sheet is large (that is, large as a whole), and a wide range of views with few operations. In order to perform the control, it is preferable to use a guide sheet having a small change in coordinates (that is, a small overall). In this way, a plurality of guide sheets having different coordinate changes relative to the actual length may be prepared and used, or the coordinate change may be logically changed by multiplying the coordinate information by a specific coefficient in the program. Good.

また、1枚のガイドシートの中で部分的に座標の変化が異なるような特殊なガイドシートを用いると、コンテンツの部分によって、異なる精度でビュー制御を行なうことが可能となる。例えば、コンテンツに印章の画像が含まれている場合、印章の位置に対応する座標のスケールを大きくしたガイドシートを用いると、印章の照合作業が容易となる。また特定の領域を切り出して拡大したガイドシートを別に用意して、必要に応じて用いてもよい。   If a special guide sheet having a partially different coordinate change is used in one guide sheet, view control can be performed with different accuracy depending on the content portion. For example, if the content includes an image of a seal, the use of a guide sheet with a large coordinate scale corresponding to the position of the seal makes it easy to check the stamp. Further, a guide sheet obtained by cutting out and enlarging a specific area may be prepared separately and used as necessary.

[実施の形態1の変形例1]
実施の携帯1では、説明の簡略化のためCCDカメラとガイドシートの間で、3次元空間のいずれかの座標軸を中心とする回転によるずれが無視できる程度と仮定している。
[Variation 1 of Embodiment 1]
In the mobile phone 1, for the sake of simplicity, it is assumed that a shift due to rotation about any coordinate axis in the three-dimensional space is negligible between the CCD camera and the guide sheet.

ところが実際は操作者が実施例1のようにガイドシートとCCDカメラとを相対的に回転させずに正確に保持することは困難な場合もある。また、意図的に回転させることによってコンテンツのビューの長辺・短辺を都合の良い向きに変えることができたり、鳥瞰図のように斜めから見て近接部分を大きくかつ遠くも含めて一度に広く閲覧することができれば便利である。   However, in practice, it may be difficult for the operator to hold the guide sheet and the CCD camera accurately without relatively rotating as in the first embodiment. In addition, by intentionally rotating the content, the long and short sides of the content view can be changed to a convenient orientation, and as shown in a bird's-eye view, the adjacent portion is large and wide, including far away. It is convenient if you can browse.

このような場合についても、原則として図7のフローチャートに添った処理が可能である。但し、以下に説明するいくつかのステップにおける処理の内容が異なる。   Even in such a case, in principle, processing according to the flowchart of FIG. 7 is possible. However, the contents of processing in some steps described below are different.

(ステップS04の処理)
まず、ステップS04にて座標指示マーカーの探索およびリストアップを行なう場合、ガイドシートを斜めから撮影することによりガイド画像内のマーカーが極端に変形していると、図11のような形状のパターンマッチングによって探索することが困難となる。
(Processing of step S04)
First, when searching and listing the coordinate indicating marker in step S04, if the marker in the guide image is extremely deformed by photographing the guide sheet from an oblique direction, pattern matching with a shape as shown in FIG. Makes it difficult to search.

そこで、たとえば座標指示マーカーの基準パターンを特定の色(赤色など)で着色しておき、カラー対応のCCDカメラで撮影し、色情報を保持したガイド画像を取得すれば、基準パターンを容易に探索することができる。この場合ステップS03では2値ではなく、赤・白・黒など3値以上に変換するとよい。   Therefore, for example, if the reference pattern of the coordinate indicating marker is colored with a specific color (red, etc.), photographed with a color-compatible CCD camera, and a guide image holding color information is obtained, the reference pattern can be easily searched. can do. In this case, in step S03, instead of binary, it is preferable to convert to three or more values such as red, white and black.

(ステップS05の処理)
ステップS05では、後述する理由により、4個の重要マーカーを決定する。たとえば、まずガイド画像内でそれぞれの基準パターンが最も離れた2個のマーカーを重要マーカーとして決定し、次いで、その2個の基準パターンを結ぶ直線からの距離が最も離れた基準パターンを含むマーカーを第3の重要マーカーとし、最後に第3の重要マーカーの基準パターンからの距離が最も離れた基準パターンを含むマーカーを第4の重要マーカーとするとよい。このように、相互にできるだけ離れるような複数のマーカーを重要マーカーとして選択・決定することにより、コンテンツのビュー制御の精度が高くなる。
(Process of step S05)
In step S05, four important markers are determined for reasons described later. For example, first, two markers that are most distant from each reference pattern in the guide image are determined as important markers, and then a marker that includes the reference pattern that is the most distant from the straight line connecting the two reference patterns is selected. The third important marker may be used as the fourth important marker. Finally, the fourth important marker may include a reference pattern that is farthest from the reference pattern of the third important marker. Thus, by selecting and determining a plurality of markers that are as far as possible from each other as important markers, the accuracy of content view control is increased.

(ステップS06の処理)
次いで、ステップS06では各重要マーカーに記載されたガイドシート上の座標情報の読み取りが必要になるが、ここでも仮にガイドシート上のマーカーが図12のような形状
であって、撮影する向きによりガイド画像内の該形状が極端に変形していると、座標情報の読み取りが困難となる。
(Process of step S06)
Next, in step S06, it is necessary to read the coordinate information on the guide sheet described in each important marker. Here, however, the marker on the guide sheet has a shape as shown in FIG. If the shape in the image is extremely deformed, it is difficult to read the coordinate information.

そこで、たとえば図13に示すように、着色によるパターンを用いて座標指示マーカーを構成すると、形状が変形していても読み取り処理が比較的容易となる。   Therefore, for example, as shown in FIG. 13, if the coordinate indicating marker is configured using a pattern by coloring, the reading process is relatively easy even if the shape is deformed.

ここで、図13を参照して、座標指示マーカー1200は、それぞれ特定の色で着色された小領域(セル)の配列1201ないし1210、および黒色の枠1211によって構成され、認識の基準となる基準セル1201と、基準セルの中心位置のX座標の値を表すX座標情報セル群1202〜1205、およびY座標の値を表すY座標情報セル群1206〜1209、およびそれらのセル群の読み取り誤りを検出する為のパリティ値表示セル1210を含んでいる。   Referring to FIG. 13, the coordinate indicating marker 1200 is composed of an array 1201 to 1210 of small regions (cells) colored with a specific color and a black frame 1211, and serves as a reference for recognition. The cell 1201, the X coordinate information cell group 1202 to 1205 representing the X coordinate value of the center position of the reference cell, the Y coordinate information cell group 1206 to 1209 representing the Y coordinate value, and reading errors of those cell groups It includes a parity value display cell 1210 for detection.

ここで、基準セル1201は上述のとおり赤色、その他のセルについては表示すべきビット値に応じて青色(ビット値=0)または緑色(ビット値=1)に着色しておくものとする。パリティ値表示セル1210は青のセルの総数を偶数とするための調整値として定めておくことにより、この規則に反する場合は読み取り誤りによりデータは無効と判定することができる。   Here, the reference cell 1201 is colored red as described above, and the other cells are colored blue (bit value = 0) or green (bit value = 1) according to the bit value to be displayed. The parity value display cell 1210 is determined as an adjustment value for setting the total number of blue cells to an even number, so that if this rule is violated, it can be determined that the data is invalid due to a read error.

例として、あるマーカーについてセルの色の配列が「赤、(青、緑、青、緑、)(青、緑、緑、緑、)青」とすると、赤色のセルの中心座標はX=0b0101×256、Y=0b0111×256となる(ここで0bに続く4桁の数字は二進数とする)。また、青色のセルの総数が4すなわち偶数であるため正常と判定する。   As an example, if the cell color array for a certain marker is “red, (blue, green, blue, green,) (blue, green, green, green,) blue”, the center coordinates of the red cell are X = 0b0101 × 256, Y = 0b0111 × 256 (Here, the 4-digit number following 0b is a binary number). Further, since the total number of blue cells is 4, that is, an even number, it is determined as normal.

(ステップS07の処理)
次にステップS07では、LCD102上の座標と対応するコンテンツ900上の座標とを1方向あるいは相互に変換するための係数を算出する。
(Process of Step S07)
In step S07, a coefficient for converting the coordinates on the LCD 102 and the corresponding coordinates on the content 900 in one direction or each other is calculated.

図14は、ガイドシート401上の任意の点がCCDカメラ106内の撮像面にガイド画像中の1点として投影される様子をモデル化して示したものである。後述するように、カメラ内部の正確なモデル化は本実施形態には必要ないことがあるため、本モデルはピンホールカメラのような簡単な形態を採っている。   FIG. 14 shows a modeled state where an arbitrary point on the guide sheet 401 is projected as one point in the guide image on the imaging surface in the CCD camera 106. As will be described later, since accurate modeling inside the camera may not be necessary in this embodiment, this model takes a simple form like a pinhole camera.

図14を参照して、ガイドシート面Sgは、3次元空間における平面の投影変換によって、カメラ内部の撮像面Scに写像される。   Referring to FIG. 14, the guide sheet surface Sg is mapped onto the imaging surface Sc inside the camera by plane projection conversion in a three-dimensional space.

いまSg上の点PgがSc上の点Pcに投影されるとき、適当な座標系Gのもとで、Pg=(x,y,z)
、投影の中心点O(図14ではピンホールの点)をO=(x0,y0,z0)とする。さらにxy平面が撮
像面Scを含むような座標系Cのもとで、Pc=(u,v,0)、O=(u0,v0,d)とする
中心点OとPcとPgは直線上にあるから、以下のことが言える。
Now when a point Pg on Sg is projected onto a point Pc on Sc, under an appropriate coordinate system G, Pg = (x, y, z)
The projection center point O (the pinhole point in FIG. 14) is O = (x0, y0, z0). Furthermore, under the coordinate system C in which the xy plane includes the imaging surface Sc, the center points O, Pc, and Pg are linear on Pc = (u, v, 0) and O = (u0, v0, d). Therefore, the following can be said.

Figure 2007179565
Figure 2007179565

このことは、座標系Cの原点および3×3の回転行列Rを適当に定め、座標系Cをz軸方向に平行移動することで、座標系GをRで回転した系が得られるようにすれば、以下のように座標値を用いて表現できる。   This means that the origin of the coordinate system C and the 3 × 3 rotation matrix R are appropriately determined, and the coordinate system G is translated in the z-axis direction so that a system in which the coordinate system G is rotated by R can be obtained. Then, it can be expressed using coordinate values as follows.

Figure 2007179565
Figure 2007179565

座標系G上の点Pg=(x,y,z)が、投影変換によって座標系C上の点Pc=(u,v,0)に写される関係は、一般にz≠0の場合も含めて上式で表せる。上記の関係にもとづき、幾つかのサンプル点からPgとPcの座標値を対応づけるのに必要なパラメータを求める問題は、カメラのキャリブレーション問題の一種であり、DLT(Direct Linear Transformation)法という解法が知られている。このようなDLT法については、たとえば、文献:Abdel-Aziz et al, Direct Linear Transformation from comparator coordinates into object space coordinates in close-range photogrammetry, Proc. of the Symp. On Close-Range Photogrammetry (1971), pp.11-18, American Soc. of Photogrammetryに開示がある。   The relationship that the point Pg = (x, y, z) on the coordinate system G is copied to the point Pc = (u, v, 0) on the coordinate system C by projection transformation is generally included even when z ≠ 0. Can be expressed by the above formula. Based on the above relationship, the problem of obtaining the parameters required to correlate the coordinate values of Pg and Pc from several sample points is a kind of camera calibration problem and is a solution called DLT (Direct Linear Transformation) method. It has been known. For such DLT method, for example, reference: Abdel-Aziz et al, Direct Linear Transformation from comparator coordinates into object space coordinates in close-range photogrammetry, Proc. Of the Symp. On Close-Range Photogrammetry (1971), pp .11-18, American Soc. Of Photogrammetry.

本実施形態の変形例では、ガイドシート面Sgが座標系Gのxy平面であって、Pg=(x,y,z)
において常にz=0となる。このときDLT法は、4つのサンプル点に対するガイドシート
面と撮像面それぞれにおける座標値にもとづいて、8元1次の連立方程式を解くことに帰着し、携帯機器を含む今日のコンピュータでは比較的高速に解ける。
In the modification of the present embodiment, the guide sheet surface Sg is an xy plane of the coordinate system G, and Pg = (x, y, z)
Always z = 0. At this time, the DLT method results in solving an 8-ary linear equation based on the coordinate values on the guide sheet surface and the imaging surface for the four sample points, and is relatively fast in today's computers including portable devices. It can be solved.

すなわち、i番目のサンプル点についてPg=(xi,yi,0)、Pc=(ui,vi,0)とするとき、式Y
を展開して、PgからPcを計算する以下の式を得る。
That is, when Pg = (xi, yi, 0) and Pc = (ui, vi, 0) for the i-th sample point, the equation Y
To obtain the following equation for calculating Pc from Pg.

Figure 2007179565
Figure 2007179565

ここで、Ri、K1, K2, …, K8については以下の関係がある。   Here, Ri, K1, K2,..., K8 have the following relationship.

Figure 2007179565
Figure 2007179565

式ZをK=(K1, K2, …, K8)Tについて解くと、以下の関係式を得る。   Solving Equation Z for K = (K1, K2,..., K8) T yields the following relational expression.

Figure 2007179565
Figure 2007179565

4つのサンプル点に対する式Wを並置して得られる8元連立1次方程式を解けばパラメータK1, K2, …, K8が得られる。すると、式ZによってPgからPcを計算できる。ここでは
略すが、式Zを変形してPcからPgを計算する式も得られる。
Parameters K1, K2,..., K8 can be obtained by solving an 8-ary simultaneous linear equation obtained by juxtaposing equations W for four sample points. Then, Pc can be calculated from Pg by the formula Z. Although abbreviated here, the formula which transforms Formula Z and calculates Pg from Pc is also obtained.

結局、パラメータK1, K2, …, K8を求めておけば、撮像面すなわちガイド画像上の座標と、ガイドシート面の座標は簡単な計算によって相互に変換できることから、ガイド画像に対応するLCD102上の座標と、ガイドシート面に対応するコンテンツ900上の座標とが同様の計算によって相互に変換できる。たとえば、本実施例でも実施の形態1と同様、コンテンツ900がビットマップデータであれば、LCD上の各座標に対応するコンテンツ上のそれぞれの座標を求めてその輝度データをLCDに対応するメモリに転送すればよいし、コンテンツ900がベクトルデータであれば、コンテンツ上の特徴点の座標をLCD上の座標に変換した上でLCDに対応するメモリ上でレンダリングを行なうとよい。   After all, if the parameters K1, K2,..., K8 are obtained, the coordinates on the imaging surface, that is, the guide image, and the coordinates on the guide sheet surface can be converted into each other by simple calculation. The coordinates and the coordinates on the content 900 corresponding to the guide sheet surface can be mutually converted by the same calculation. For example, in the present embodiment, similarly to the first embodiment, if the content 900 is bitmap data, each coordinate on the content corresponding to each coordinate on the LCD is obtained and the luminance data is stored in a memory corresponding to the LCD. If the content 900 is vector data, the coordinates of feature points on the content are converted into coordinates on the LCD, and then rendering is performed on a memory corresponding to the LCD.

実際のカメラは複数のレンズを備えることもあり、座標変換の精度を重視するときは、光学歪みなどの補正を考慮したより複雑な方法を用いることもできる。しかし、本実施形態の変形例においては、ユーザによるガイドシート面や撮像面の位置変更は、LCD上における閲覧内容に即座に反映されるべきである。例えば所定の時間間隔で連続的に変更を反映するならば、高速に座標変換の計算ができる本実施例の方法が好ましい。また、座標変換にはある程度の精度が求められるが、ユーザによる意図的な変更以外に手ブレによっても座標位置は変化するから、変換で得られた座標をそのままLCD上に反映せずに、後述する手ブレ補正を施した方が、ユーザにとっては見易く好ましいことがある。   An actual camera may include a plurality of lenses, and when importance is attached to the accuracy of coordinate conversion, a more complicated method considering correction of optical distortion or the like can be used. However, in the modification of this embodiment, the change in the position of the guide sheet surface or the imaging surface by the user should be immediately reflected in the browsing content on the LCD. For example, if the change is continuously reflected at a predetermined time interval, the method of the present embodiment that can calculate the coordinate transformation at high speed is preferable. In addition, although a certain degree of accuracy is required for coordinate conversion, the coordinate position changes due to camera shake in addition to the intentional change by the user. Therefore, the coordinates obtained by the conversion are not reflected on the LCD as they are, which will be described later. It may be preferable and easy for the user to perform the camera shake correction.

なお、上述の座標変換方法の説明は、ガイドシート面上の座標を撮像面上の座標に変換するために公知の手法が応用できることを示しているが、本実施形態にとっては、どのような座標変換方法を用いても構わない。例えば、最初にDLT法を用いて座標変換のパラメータを求めた後は、後述する動きベクトルを求める方法を用いて、座標値の変化を求めるようにしてもよい。   Note that the above description of the coordinate conversion method indicates that a known method can be applied to convert the coordinates on the guide sheet surface to the coordinates on the imaging surface. A conversion method may be used. For example, after the coordinate transformation parameter is first obtained using the DLT method, a change in coordinate value may be obtained using a method for obtaining a motion vector, which will be described later.

[実施の形態1の変形例2]
上記実施の形態は、ガイドシート面が仮想的な平面の一部であること、すなわち彎曲していないことを前提としている。ところがガイドシートが薄い紙のようなものである場合、ガイドシートの彎曲に従って対応するコンテンツも彎曲して見えるとより自然である。このような場合、ガイド画像について各座標指示マーカーを頂点とした四角形の小領域に区切り、それぞれの四角形の4つの頂点をサンプル点として上記パラメータK1, K2, …, K8を求め、LCDの該当部分に該当部コンテンツの該当部分をマッピングして表示するとよい。これによりガイドシートの彎曲に添ってコンテンツも彎曲して見える。
[Modification 2 of Embodiment 1]
The above embodiment is based on the premise that the guide sheet surface is a part of a virtual plane, that is, not curved. However, when the guide sheet is like a thin paper, it is more natural if the corresponding content appears to be folded according to the curve of the guide sheet. In such a case, the guide image is divided into rectangular small regions each having the coordinate indicating marker as a vertex, and the parameters K1, K2,... The corresponding part of the corresponding part content may be mapped and displayed. As a result, the content appears to be folded along with the curve of the guide sheet.

上記の応用として、球面をガイドシートとして用いることもできる。たとえば、球面に経度と緯度による座標情報を書き込んでおいたものをガイドシートとして、本発明によるコンテンツ表現制御装置を用いて、メルカトル図法で表現された世界地図のデータを上記のような四角形の小領域毎にマッピングすると、あたかも地球儀を見るように閲覧することが可能となる。実際の地球儀では固定された1種類の世界地図が閲覧できるだけであるが、本発明によると、時間軸別あるいは用途別の世界地図データを複数用意することにより、ひとつの球を表示媒体に見立てて、用途別の地球儀を閲覧したり、時間とともに変化する気象図を閲覧したりすることが可能となる。   As the above application, a spherical surface can be used as a guide sheet. For example, using the content expression control device according to the present invention as a guide sheet in which coordinate information based on longitude and latitude is written on a spherical surface, the world map data represented by the Mercator projection is converted into a small square as described above. If mapping is performed for each area, it is possible to browse as if looking at the globe. In an actual globe, you can browse only one type of fixed world map. However, according to the present invention, by preparing multiple world map data by time axis or application, one sphere can be regarded as a display medium. It is possible to browse the globes for different purposes and browse weather maps that change over time.

同様に、立体的に成型された山岳模型に経度と緯度による座標情報を書き込んでおいたものをガイドシートとして、各種用途別の地図データをマッピングして利用することも可能である。   Similarly, it is also possible to map and use map data according to various uses by using a three-dimensionally shaped mountain model in which coordinate information based on longitude and latitude is written as a guide sheet.

[実施の形態1の変形例3](ガイドシートのバリエーション)
以下では、実施の形態1の変形例3として、その他の多様なガイドシートの形態について図15および図16を参照して説明する。
[Modification 3 of Embodiment 1] (Variation of guide sheet)
Hereinafter, as a third modification of the first embodiment, other various guide sheet forms will be described with reference to FIGS. 15 and 16.

図15(a)はガイドシート上の各点(図では”“*”で示す)のそれぞれの座標を図形や色のパターンではなく。文字(数字を含む)によって表現したものである。文字によって表現された座標値をデータとして読み取るには、OCR(Optical Character Reader)と呼ばれる装置において広く使用されている文字読取技術を応用することによって可能となる。   15A shows the coordinates of each point on the guide sheet (indicated by “*” in the figure) by characters (including numbers) instead of graphics or color patterns. Reading expressed coordinate values as data can be performed by applying a character reading technique widely used in an apparatus called OCR (Optical Character Reader).

図15(b)はガイドシートとして自由な画像を用いたものである。すなわち、コンテンツ表現制御装置の内部にあらかじめ外部基準画像[図15(b)]の全体と同一または相似形のデータを照合用基準画像として保持しておき、操作時には図15(b)の一部を撮影してディジタル化したガイド画像とパターン照合することにより、どの部分がガイド画像として切り取られているか、すなわちビューを算出することができ、その算出結果を元にして表示するコンテンツのビュー制御が可能となる。   FIG. 15B uses a free image as a guide sheet. That is, the same or similar data as the entire external reference image [FIG. 15 (b)] is held in advance in the content expression control device as a reference image for collation, and a part of FIG. By matching the pattern with a digitized guide image, it is possible to calculate which part is cut out as a guide image, that is, a view, and view control of the content to be displayed based on the calculation result. It becomes possible.

このとき用いる画像は、できるだけ隅々までパターンが書き込まれ、しかも部分ごとに似たパターンが少ないほど誤認識が少なくなり好適である。   As for the image used at this time, a pattern is written to every corner as much as possible, and the smaller the number of similar patterns for each part, the smaller the erroneous recognition, which is preferable.

なお、照合用基準画像とガイド画像のパターン照合はいかなる方法を用いてもよいが、第1の方法として、照合用画像データの左上の座標から順に拡大率を変えながらガイド画像を構成する各画素との輝度の差をとり、その差を比較部分の画素数で割った値が最小となる座標および拡大率を探索することによってビューを算出する方法がある。また、第2の方法として、照合用画像データを適切なブロックに分割し、ブロック毎に縦横の画素の色成分別の輝度の列を離散コサイン変換したデータと、ガイド画像について同様に離散コサイン変換したデータとを周波数成分別に照合する方法がある。   Note that any method may be used for pattern matching between the reference image for matching and the guide image. As a first method, each pixel constituting the guide image while changing the enlargement ratio in order from the upper left coordinates of the matching image data. There is a method of calculating a view by searching for a coordinate and an enlargement ratio at which a value obtained by taking the difference in brightness and dividing the difference by the number of pixels in the comparison portion is minimum. Also, as a second method, the image data for collation is divided into appropriate blocks, and the data obtained by performing discrete cosine transform on the luminance column for each color component of the vertical and horizontal pixels for each block and the discrete cosine transform in the same manner for the guide image. There is a method of collating the obtained data with frequency components.

第2の方法はガイド画像全体に対して、まず低い周波数成分すなわち大まかな輝度変化のパターンから照合し、差異がある閾値内である場合のみ順次階層的に高い周波数成分照合していくことにより、無駄な細部の照合をできるだけ省略し、照合処理の効率化を図ろうというものである。   The second method is to first collate the entire guide image from a low frequency component, that is, a pattern of rough luminance change, and sequentially collate high frequency components hierarchically only when the difference is within a certain threshold, It is intended to eliminate unnecessary detail collation as much as possible and improve the efficiency of collation processing.

ここで、図15(b)のようにガイドシートとして自由な画像を用いる場合、使用する場所で撮影した静止画を用いることも可能であり、専用のガイドシートを持ち歩く必要がないという利点がある。たとえば、出張先でコンテンツを閲覧する場合、現地にて雑誌の表紙あるいは新聞紙の一部などを、撮影して照合用画像として登録した上で、ガイドシートとして用いるとよい。この場合、撮影した対象物の大きさにより、コンテンツの仮想的な大きさを決定することができる。例えば、新聞紙をA4版の大きさに折りたたんでそれを撮影・登録してガイドシートとして利用すると、コンテンツがA4版の大きさにマッピングされるので、操作者はコンテンツの仮想的な大きさがあたかもA4版であるように知覚する。   Here, when a free image is used as a guide sheet as shown in FIG. 15 (b), it is possible to use a still image taken at the place of use, and there is an advantage that it is not necessary to carry a dedicated guide sheet. . For example, when browsing content on a business trip destination, a magazine cover or a part of newspaper may be photographed and registered as a collation image on the site and used as a guide sheet. In this case, the virtual size of the content can be determined based on the size of the photographed object. For example, if you fold a newspaper into A4 size, shoot and register it, and use it as a guide sheet, the content is mapped to the A4 size, so that the operator has the virtual size of the content. Perceived to be A4 version.

ここで、精度の高いビュー制御のためには比較的大きなガイドシートを用いるとよいし、一方、少ない動作で広範囲のビュー制御を行なうためには比較的小さなガイドシートを用いるとよい。このように目的に応じて任意にビュー制御の精度を選択することが可能となる。なお、第1の実施例においても同様に、複数種類のスケールのガイドシートを用意して、要求される精度に応じて使い分けることができる。複数種類のスケールのガイドシートは、たとえば元になるガイドシートを単に拡大または縮小して複写することによって作成することができる。   Here, a relatively large guide sheet may be used for highly accurate view control, while a relatively small guide sheet may be used for performing a wide range of view control with a small number of operations. In this way, it is possible to arbitrarily select the accuracy of view control according to the purpose. Similarly, in the first embodiment, a plurality of types of scale guide sheets can be prepared and used according to the required accuracy. A plurality of types of scale guide sheets can be created, for example, by simply enlarging or reducing the original guide sheet.

また、逐次撮影されたガイド画像の変化から、カメラの撮像面に対するガイドシートの動きを表す動きベクトルを検出可能であれば、検出された動きベクトルを元にして表現するコンテンツの表現制御を可能としてもよい。輝度パターンの見かけの動き(オプティカルフロー)を検出して、そこから動きベクトルを計算する手法については、動画像処理の分野における多くの研究があり、その基本的な手法は文献: J.K.Aggarwal et al, On the
computation of motion from sequences of images -- a review, Proc. IEEE, Vol. 76, No.8, pp.917-935, 1988に開示されている。ここで、ガイドとなる物体は平面状の物体や剛体でなくても、動きベクトルを検出可能なことがある。図16(c)はガイドとして操作者の片手(機器を持たないほうの手)を用いた例である。この場合、手の輪郭パターンや、手の皮膚のしわのパターンを用いたパターン照合を行ってビューを算出し、そこから動きベクトルを検出してもよいし、より一般的にオプティカルフローにもとづいて動きベクトルを求めてもよい。また、照合や検出の精度を上げるために、手の皮膚に特徴的な図形パターンあるいは図6のような座標指示マーカーを書き込んでおいたり、または、座標指示マーカーが印刷された手袋を用いてもよい。これらの際に、背景光の条件を整えるために、対象を撮影するカメラ106の近くに、同じ対象を照射するライトを設けて、撮影時に対象を照射するようにしてもよい。
In addition, if it is possible to detect a motion vector that represents the movement of the guide sheet relative to the imaging surface of the camera from changes in the guide images that are sequentially captured, it is possible to control the expression of the content that is expressed based on the detected motion vector. Also good. There are many studies in the field of moving image processing to detect the apparent motion (optical flow) of the luminance pattern and calculate the motion vector from it. The basic method is literature: JKAggarwal et al, On the
computation of motion from sequences of images-a review, Proc. IEEE, Vol. 76, No. 8, pp. 917-935, 1988. Here, the motion vector may be detected even if the object serving as the guide is not a planar object or a rigid body. FIG. 16C shows an example in which the operator's one hand (the hand without the device) is used as a guide. In this case, a view may be calculated by performing pattern matching using a hand contour pattern or a hand wrinkle pattern, and a motion vector may be detected therefrom, or more generally based on an optical flow. A motion vector may be obtained. Further, in order to improve the accuracy of collation and detection, a graphic pattern characteristic to the skin of the hand or a coordinate indicating marker as shown in FIG. 6 may be written, or a glove on which the coordinate indicating marker is printed may be used. Good. In these cases, in order to adjust the condition of the background light, a light that irradiates the same target may be provided near the camera 106 that captures the target, and the target may be irradiated during the shooting.

図16(d)はたとえば携帯電話装置において撮影方向の転換が可能な場合、CCDカメラを操作者自身の顔に向け、ガイドとして顔の画像を用いた例である。この場合についても認識の精度が条件により変動するので、顔の皮膚に座標指示マーカーを書き込んでおく方法や座標指示マーカーが印刷された仮面や眼鏡を用いる方法も考えられる。このように、ビュー制御のために操作者自身の顔を用いる場合は、前後が反転するため処理のモード変更が必要となる。このとき、機器を顔から離すに伴い、通常は拡大率を上げると直感に合致して好ましいが、拡大率を上げる場合は細部を見たい場合が多いため、顔に近づけるに伴って拡大率を上げるほうが好ましい場合もある。   FIG. 16 (d) shows an example in which a CCD camera is directed to the operator's own face and a face image is used as a guide when the photographing direction can be changed in a mobile phone device. Also in this case, since the recognition accuracy varies depending on conditions, a method of writing a coordinate instruction marker on the face skin or a method of using a mask or glasses on which the coordinate instruction marker is printed can be considered. As described above, when the operator's own face is used for view control, the front and rear are reversed, and the processing mode must be changed. At this time, as the device is moved away from the face, it is usually preferable to increase the enlargement ratio to match the intuition.However, when increasing the enlargement ratio, it is often desirable to see details. It may be preferable to raise it.

なお、基準画像の部分別に座標情報を含む電子透かしを挿入しておき、撮影された電子透かしを解読することにより座標情報を求め、コンテンツの表現に関するパラメータを制御する方法もある。画像の部分別に電子透かしを挿入する方法の例は、特開2001−109756公報に開示されている。該公報では、画像を部分毎に検索するためのキーワードを、特殊な電子透かし技術を用いて画像に埋め込むことを提案しているが、本願に係る発明に応用すると、ガイドシートとして用いる画像内の部分毎の座標情報を表現するために、該公報と同様の電子透かし技術を用いることができる。   In addition, there is a method in which a digital watermark including coordinate information is inserted for each part of the reference image, coordinate information is obtained by decoding the photographed digital watermark, and parameters relating to the expression of the content are controlled. An example of a method of inserting a digital watermark for each part of an image is disclosed in Japanese Patent Laid-Open No. 2001-109756. The publication proposes embedding a keyword for searching an image for each part into an image using a special digital watermark technique. However, when applied to the invention according to the present application, In order to express the coordinate information for each part, a digital watermark technique similar to that of the publication can be used.

また、図示しないが、座標情報はガイドシート上の色の変化で表現することも可能である。たとえば、ガイドシートの特定の座標の色を光の3原色である赤、緑、青、のそれぞれの成分の割合(R%,G%,B%)で表示すると、左上の色を(100%、0%、0%)とし、右上の色を(0%、100%、0%)として左上から右上にかけて赤と緑の成分をグラデーションとして徐々に変化させ、また、左下の色を(100%、0%、100%)、右下の色を(0%、100%、100%)として、縦軸および横軸ともに徐々に変化するように印刷しておくと、ガイドシート上の特定の点の色はユニークとなる。このガイドシートの一部を撮影してガイド画像とし、ガイド画像中の着色部分の任意の画素(着色部分のコーナーなど)の色の成分を分離することにより、その画素に対応するガイドシート上での縦軸および横軸の座標を逆算して推定することが可能となる。たとえば上記の例では、ある画素の色成分が(50%、50%、0%)となっているとすると、その画素はガイドシートの上辺の中点付近であることが推定できる。   Although not shown, the coordinate information can be expressed by a change in color on the guide sheet. For example, when the color of a specific coordinate of the guide sheet is displayed by the ratio (R%, G%, B%) of each of the three primary colors of light, red, green, and blue, the upper left color (100% , 0%, 0%), the upper right color is (0%, 100%, 0%), and the red and green components are gradually changed as gradation from the upper left to the upper right, and the lower left color is (100% , 0%, 100%), the lower right color is (0%, 100%, 100%) The color will be unique. A part of this guide sheet is photographed as a guide image, and the color component of any pixel (such as a corner of the colored part) in the colored part in the guide image is separated on the guide sheet corresponding to that pixel. It is possible to estimate by calculating back the coordinates of the vertical and horizontal axes. For example, in the above example, if the color component of a certain pixel is (50%, 50%, 0%), it can be estimated that the pixel is near the midpoint of the upper side of the guide sheet.

このような場合、外部の照明の明るさや色などの条件により、認識される色の成分の値が変動するため、たとえば、ビュー制御の操作に先立って、あらかじめガイドシート全体を撮影し、着色部分の各コーナー4点の色の成分を記憶しておき、ビュー制御時の各座標
算出のための基準値として利用するとよい。
In such a case, the value of the recognized color component varies depending on conditions such as the brightness and color of the external illumination. For example, before the view control operation, the entire guide sheet is photographed and colored portions are It is preferable to store the color components of the four corners of each corner and use them as reference values for calculating the coordinates during view control.

[実施の形態1の変形例4](手ブレ補正など)
本発明に係るコンテンツ表現制御システムでは、前述のように、ユーザによる意図的な変更以外に、装置とガイドシートの位置関係が微妙に動くことによりコンテンツ表示が見づらくなることが考えられる。
[Modification 4 of Embodiment 1] (camera shake correction, etc.)
In the content expression control system according to the present invention, as described above, it is conceivable that the content display becomes difficult to see due to a slight movement of the positional relationship between the apparatus and the guide sheet, in addition to the intentional change by the user.

そこで、ガイドシートの撮影に際して、いわゆる手ブレ補正の機能があると好ましい。手ブレ補正は如何なる方法を用いてもよい。たとえば、複数の時点のガイド画像をもとにしてそれぞれのビューに関するパラメータを算出し、それらの平均(移動平均)をとって
得られる値を用いてコンテンツのビューを制御すると、表示上の細かいブレが緩和される。
Therefore, it is preferable to have a so-called camera shake correction function when shooting the guide sheet. Any method may be used for camera shake correction. For example, if the parameters for each view are calculated based on the guide images at multiple points in time and the view of the content is controlled using the value obtained by taking the average (moving average) of them, fine blurring on the display can be achieved. Is alleviated.

また、ガイドシートの動きに対して、ビューの動き方を一部制限することで見やすくなることがある。たとえば、前述のようにCCDカメラとガイドシートの間で3次元空間のいずれかの座標軸を中心とする回転は閲覧の自由度を高めるが、反面、文字などのコンテンツは見にくくなることがあると考えられるため、カメラを基準とする3次元のxyz座標系で考えると、x、y、zのいずれかまたは全ての軸を中心とする回転を制限してもよい。たとえば、xおよびy軸を中心とする回転は、いずれも原則としてビュー制御に影響しないものとし、z軸を中心とする回転においては、−45度〜+45度の回転はビュー制御に影響しないとすると、表示は安定する一方、ビューの縦横の向きは制御可能となる。また、コンテンツが変化する最小時間間隔を制限することによっても表示を安定させることができる。さらにズーム制御を一時的あるいは恒常的に停止すると、ビュー制御の自由度は制限される反面、表示の安定度は向上する。上述のように、特に文字においては表示の安定度が要求されるために、ビューの回転や拡大・縮小に際して、各文字列の左上の座標のみを制御の対象とし、各文字の形状や向きには影響しないように制御してもよい。また、キー操作などにより全ての方向および回転軸によるビュー移動を一時停止させることができれば表示を安定させることができ見やすくなる。すなわち図7のフローチャートを参照して、ステップS09において、終了指示有無の判定の他、一時停止指示有無を判定し、一時停止指示がある場合は指示が解除されるまでステップS01への帰還を保留するとよい。   In addition, it may be easier to view the guide sheet by partially restricting how the view moves. For example, as described above, rotation around any coordinate axis in the three-dimensional space between the CCD camera and the guide sheet increases the degree of freedom of browsing, but on the other hand, content such as characters may be difficult to see. Therefore, when considering a three-dimensional xyz coordinate system with the camera as a reference, rotation about any axis of x, y, or z may be limited. For example, it is assumed that rotation about the x and y axes does not affect the view control in principle, and rotation about −45 degrees to +45 degrees does not affect the view control in rotation about the z axis. Then, while the display is stabilized, the vertical and horizontal orientations of the view can be controlled. The display can also be stabilized by limiting the minimum time interval at which the content changes. Furthermore, if zoom control is temporarily or permanently stopped, the degree of freedom of view control is limited, but the stability of display is improved. As described above, display stability is particularly required for characters, so only the upper left coordinate of each character string is subject to control when the view is rotated, enlarged, or reduced, and the shape and orientation of each character are controlled. May be controlled so as not to affect. In addition, if the view movement in all directions and the rotation axis can be temporarily stopped by a key operation or the like, the display can be stabilized and easy to see. That is, referring to the flowchart of FIG. 7, in step S09, in addition to the determination of the presence / absence of an end instruction, the presence / absence of a pause instruction is determined. If there is a pause instruction, the return to step S01 is suspended until the instruction is canceled. Good.

[実施の形態1の変形例5](カメラの位置)
本発明にかかる以上の実施の形態およびその変形例においては、図1を参照して、LCD102の中央の裏面にCCDカメラ106が位置するように構成することが好ましい。これにより、機器とガイドシートを十分接近させた場合でも直感的な移動操作により、あたかもコンテンツを虫眼鏡で覗くようにビュー制御することが可能となる。
[Modification 5 of Embodiment 1] (Camera Position)
In the above embodiment and its modification according to the present invention, it is preferable that the CCD camera 106 is positioned on the back surface at the center of the LCD 102 with reference to FIG. As a result, even when the device and the guide sheet are sufficiently close to each other, it is possible to perform view control as if looking through the magnifying glass with an intuitive movement operation.

しかしながら、実際の携帯電話装置においては構造上の制限によりCCDカメラがLCDの周辺部の裏面に位置する場合がある。   However, in an actual mobile phone device, the CCD camera may be located on the back surface of the peripheral portion of the LCD due to structural limitations.

たとえば、図17を参照して、CCDカメラ1406がLCD1402の右下端1407の裏面1406に位置する場合を考える。この場合、操作者がコンテンツの左上の頂点付近を見ようとして、LCDの中心をガイドシートの左上の頂点付近に移動させると、CCDカメラはガイドシートの左上の頂点より右下方を中心として撮影することになる。その結果、実施の形態1の方法では、コンテンツがガイドシートの左上方向にずれてマッピングされているような感覚をもたらしてしまうことになる。そこで、上記実施の形態1に準じる場合においてはコンテンツの座標(Xr,Yr)の計算式について、次のように一
定の値αおよびβを加算して補正するとよい。
For example, referring to FIG. 17, consider a case where the CCD camera 1406 is located on the back surface 1406 of the lower right end 1407 of the LCD 1402. In this case, when the operator moves the center of the LCD to the vicinity of the upper left vertex of the guide sheet in order to see the vicinity of the upper left vertex of the content, the CCD camera takes a picture centering on the lower right corner from the upper left vertex of the guide sheet. become. As a result, the method according to the first embodiment brings about a feeling that the content is mapped in the upper left direction of the guide sheet. Therefore, in the case of conforming to the first embodiment, the calculation formula of the content coordinates (Xr, Yr) may be corrected by adding constant values α and β as follows.

Xr=Xw・(Xq−Xp)/Xv+Xp+α
Yr=Yw・(Yq−Yp)/Yv+Yp+β
但し、この場合、ガイドシートの下端または右端付近を見ようとすると、CCDカメラがガイドシートの有効部分の外側を撮影することになるので、注意が必要である。この場合、図18を参照して座標指示マーカー群をガイドシートの右下方向に拡張または平行移動させて印刷する方法がある。各座標指示マーカーの値を変えずに座標指示マーカー群を単に右下方向に平行移動させておく場合は上記計算式のαおよびβによる補正は必要ない。
Xr = Xw · (Xq−Xp) / Xv + Xp + α
Yr = Yw · (Yq−Yp) / Yv + Yp + β
In this case, however, if the user tries to look at the lower end or the right end of the guide sheet, the CCD camera will take an image outside the effective portion of the guide sheet, so care must be taken. In this case, referring to FIG. 18, there is a method of printing by extending or translating the coordinate indicating marker group in the lower right direction of the guide sheet. When the coordinate indicating marker group is simply translated in the lower right direction without changing the value of each coordinate indicating marker, the correction by α and β in the above calculation formula is not necessary.

また、図19を参照して、1枚の座標指示マーカーを複数の端末機種に対応させる方法を示す。すなわち、大きめのガイドシート1600の中央に座標指示マーカー群1601を配置し、操作者の携帯電話装置の機種に応じて定められた撮影範囲を破線1602または1603によって示しておくものである。例えば、CCDカメラが、LCDの右下の裏面に位置する機種の場合は操作者が破線1602によって示された撮影範囲を使用し、LCDの左上の裏面に位置する機種の場合は操作者が破線1603によって示された撮影範囲を使用するなどのように定めておくとよい。   Further, referring to FIG. 19, a method of making one coordinate instruction marker correspond to a plurality of terminal models is shown. That is, a coordinate indicating marker group 1601 is arranged at the center of a large guide sheet 1600, and a shooting range determined according to the model of the operator's mobile phone device is indicated by a broken line 1602 or 1603. For example, if the CCD camera is a model located on the lower right back surface of the LCD, the operator uses the shooting range indicated by the broken line 1602, and if the model is located on the upper left back surface of the LCD, the operator uses the broken line. It may be determined such that the shooting range indicated by 1603 is used.

[実施の形態1の変形例6](カメラの位置)
あるいは、図20のように鏡面またはプリズムを用いてカメラLCDの中心とカメラの中心を一致させてもよい。
[Modification 6 of Embodiment 1] (Camera Position)
Alternatively, as shown in FIG. 20, the center of the camera LCD and the center of the camera may be matched using a mirror surface or a prism.

図20(a)本実施例における側面図であり、図20(b)は背面図である。携帯電話機1700においてLCD1701とCCDカメラ1702の中心位置が図のように異なる場合、補正器具1710を用いてCCDカメラの撮像における中心線を補正することが可能である。補正器具1710の内部に鏡面1711および鏡面1712を固定することにより、CCDカメラ1702の撮像における中心線がそれぞれの鏡面による反射により経路1712をたどることになり、撮影範囲の中心1714がLCD1701の中心位置と一致する。   FIG. 20A is a side view of the present embodiment, and FIG. 20B is a rear view. When the center positions of the LCD 1701 and the CCD camera 1702 in the mobile phone 1700 are different as shown in the figure, it is possible to correct the center line in the imaging of the CCD camera using the correction tool 1710. By fixing the mirror surface 1711 and the mirror surface 1712 inside the correction device 1710, the center line in the imaging of the CCD camera 1702 follows the path 1712 due to reflection by each mirror surface, and the center 1714 of the photographing range is the center position of the LCD 1701. Matches.

なお、携帯電話機1700への補正器具1710の固定は、周知の方法を用いることが可能であるので、ここでは説明を省略する。   Note that a known method can be used to fix the correction device 1710 to the mobile phone 1700, and thus description thereof is omitted here.

[実施の形態1の変形例7](ビュー以外の制御)
ここでは、本発明に係るコンテンツの表現に対する制御として、これまでの実施の形態および変形例で示したビューの制御以外にも適用可能であることを示す。
[Modification 7 of Embodiment 1] (Control other than view)
Here, it is shown that the control for content expression according to the present invention can be applied to the control other than the view control shown in the above embodiments and modifications.

実施の形態1において、XpおよびXq(あるいはYpおよびYq)を求めることにより、CCDカメラ106からガイドシートA101までの距離を求めることができる。すなわちその距離をdとすると、dはXq−Xpに比例する。たとえば、Xq−Xp=Xv(等倍表示)であるときの距離をvとすると、
d=v・(Xq−Xp)/Xv
として計算できる。
In the first embodiment, the distance from the CCD camera 106 to the guide sheet A101 can be obtained by obtaining Xp and Xq (or Yp and Yq). That is, if the distance is d, d is proportional to Xq-Xp. For example, when the distance when Xq−Xp = Xv (same size display) is v,
d = v · (Xq−Xp) / Xv
Can be calculated as

たとえば、複数ページから構成されるプレゼンテーションのようなコンテンツでは、z軸上の値(すなわち機器とガイドシートとの距離=d)を、コンテンツの拡大率の決定ではなく、閲覧対象ページの決定に用いることができる。具体的にはコンテンツの各ページのデータの先頭を指し示すポインタの配列をPi (i=1..n)とすると、添え字iは、以下のようにして計算できる。   For example, in content such as a presentation composed of a plurality of pages, a value on the z-axis (that is, the distance between the device and the guide sheet = d) is used to determine the page to be browsed instead of determining the magnification rate of the content. be able to. Specifically, assuming that Pi (i = 1..n) is an array of pointers pointing to the head of data of each page of content, the subscript i can be calculated as follows.

i=n−[a・d]
(但し、[]は小数点以下切り捨て演算、aは定数,1≦i≦n)
このときはコンテンツの拡大率は一定となるが、CCDカメラ106からガイドシート401までの距離(以下これをガイドシート上の原点を基準とするz軸方向の値とする)を、コンテンツの拡大率の決定に用いるか、あるいは閲覧対象ページの決定に用いるか、といういずれかのモードを操作者がキー操作などで選択できるようにしておけばよい。なお、コンテンツ表現制御装置はWWW(World Wide Web)ページへのアクセス機能を備え、上記ポインタが示す対象はURL(Uniformed Resource Locator)であって、Z軸方向の値を、たとえば閲覧履歴などに基づいてあらかじめ順序付けされたURLが示すWWWページの表示制御に用いてもよい。
i = n− [a · d]
(However, [] is rounded down, a is a constant, 1 ≦ i ≦ n)
At this time, the content enlargement rate is constant, but the distance from the CCD camera 106 to the guide sheet 401 (hereinafter referred to as a value in the z-axis direction with the origin on the guide sheet as a reference) is set as the content enlargement rate. It is only necessary to allow the operator to select one of the modes to be used for determining the page or the page to be browsed by key operation or the like. The content expression control device has a function to access a WWW (World Wide Web) page, the target indicated by the pointer is a URL (Uniformed Resource Locator), and the value in the Z-axis direction is based on, for example, browsing history It may be used for display control of a WWW page indicated by URLs ordered in advance.

同様に、時間軸を持った動画コンテンツに関してはz軸をコンテンツ内の表示対象フレームあるいは再生開始フレームの決定に用いることができる。具体的には上記コンテンツの各ページを各表示フレームあるいは各表示開始フレームに置き換えることで実現できる。   Similarly, for moving image content having a time axis, the z axis can be used to determine a display target frame or a reproduction start frame in the content. Specifically, this can be realized by replacing each page of the content with each display frame or each display start frame.

以上のようなコンテンツにおけるページあるいは時間軸の制御に関しては、z軸を用いるだけではなく、ガイドシートを撮影することによって読み取るx軸またはy軸方向の座標情報を用いてもよい。たとえば、動画コンテンツに関して、x軸方向の座標情報を表示フレーム単位の細かい制御に用い、y軸方向の座標情報をおおまかな表示シーンの制御に用いてもよいし、z軸方向を表示拡大率の制御に用いてもよい。この場合は表示部分の中心位置などが一定となるため、x軸またはy軸方向の座標情報はスクロールの制御に用いることができないが、x軸またはy軸を、コンテンツの時間軸の制御に用いるか、あるいはスクロールの制御に用いるか、といういずれかのモードを操作者がキー操作などで選択できるようにしておけばよい。なお、x軸あるいはy軸に割り当てられたパラメータはガイドシート上の絶対座標の指示が容易であるため、z軸に割り当てられたパラメータと比較して、より精密に制御することが可能となる。   Regarding the control of the page or the time axis in the content as described above, not only the z axis but also coordinate information in the x axis or y axis direction read by photographing the guide sheet may be used. For example, regarding moving image content, coordinate information in the x-axis direction may be used for fine control in units of display frames, coordinate information in the y-axis direction may be used for rough display scene control, and the z-axis direction may be used for display magnification. It may be used for control. In this case, since the center position of the display portion is constant, coordinate information in the x-axis or y-axis direction cannot be used for scroll control, but the x-axis or y-axis is used for content time axis control. It is only necessary to allow the operator to select one of the modes to be used for controlling the scroll or for controlling the scroll by a key operation or the like. Since the parameters assigned to the x-axis or the y-axis can be easily specified with absolute coordinates on the guide sheet, the parameters can be controlled more precisely than the parameters assigned to the z-axis.

[実施の形態1の変形例8]
上記のように本発明による制御装置により、x軸、y軸、あるいはz軸に対応する制御値を取得することにより、その制御値を用いてコンテンツの表現に関する様々なパラメータの制御が可能となる。
[Modification 8 of Embodiment 1]
As described above, by acquiring a control value corresponding to the x-axis, y-axis, or z-axis by the control device according to the present invention, it is possible to control various parameters related to the expression of content using the control value. .

たとえば、本発明に係るコンテンツを音声、音響、または音楽とすると、表現に対する制御の対象となるパラメータとしては、時間軸上の再生位置、音量、音像の定位、再生ピッチ、あるいは特定の音響効果の度合いなどが挙げられる。たとえば特定の音源について、上記x軸およびy軸上の位置により平面上の音像の定位を直感的に制御し、z軸上の位置により音量を制御することなどが可能である。なお、本発明による制御装置の出力は数値データとして得られるので、その数値データを用いて音に関する上記各パラメータを制御する方法は、当業者にとって周知な方法を用いることができるので、ここでは詳細な説明を省略する。   For example, if the content according to the present invention is voice, sound, or music, parameters to be controlled for expression include playback position on the time axis, volume, sound image localization, playback pitch, or a specific acoustic effect. Degree etc. are mentioned. For example, for a specific sound source, it is possible to intuitively control the localization of the sound image on the plane by the position on the x-axis and the y-axis, and to control the volume by the position on the z-axis. Since the output of the control device according to the present invention is obtained as numerical data, a method well known to those skilled in the art can be used as a method for controlling the above-described parameters relating to sound using the numerical data. The detailed explanation is omitted.

[実施の形態1の変形例9]
本実施例に係るコンテンツ表現制御装置によって制御されるコンテンツを、テレビジョン放送を一括してハードディスクなどに記録した動画データの集合であるとすると、たとえばx軸は放送局あるいは放送日、y軸は放送時間帯、z軸は特定の番組内の時間軸、をそれぞれ制御することができる。
[Variation 9 of Embodiment 1]
If the content controlled by the content expression control apparatus according to the present embodiment is a set of moving image data in which television broadcasts are collectively recorded on a hard disk or the like, for example, the x-axis is a broadcasting station or broadcast date, and the y-axis is The broadcast time zone and the z axis can control the time axis in a specific program, respectively.

この場合、ガイドシートは番組一覧表と兼用するとよい。すなわち、通常の番組一覧表上に座標指示マーカーを縦横に並べたものをガイドシートとして使用すると、番組の検索が容易となる。この場合、番組一覧表と座標指示マーカーは別の色で印刷すると画像処理
において分離が容易となり計算コストを抑えることができる。同様の目的で、座標指示マーカーを透明なフィルム上に特定の色で印刷しておき、新聞などで供給される番組一覧表の上に重ね合わせて使用してもよい。ここでも、本発明による制御装置によりx軸、y軸、あるいはz軸に対応する制御値を取得することができれば、ハードディスク中の再生すべき動画データの放送日、放送時間帯、または特定の番組内の時間軸などのパラメータを制御することは当業者に自明であるのでここでは詳細な説明を省略する。
In this case, the guide sheet may be used also as a program list. That is, when a normal program list in which coordinate instruction markers are arranged vertically and horizontally is used as a guide sheet, a program search is facilitated. In this case, if the program list and the coordinate indication marker are printed in different colors, the image processing can be easily separated and the calculation cost can be reduced. For the same purpose, the coordinate indicating marker may be printed in a specific color on a transparent film and used by superimposing it on a program list supplied by a newspaper or the like. Again, if a control value corresponding to the x-axis, y-axis, or z-axis can be acquired by the control device according to the present invention, the broadcast date, broadcast time zone, or specific program of the video data to be reproduced on the hard disk Since it is obvious to those skilled in the art to control parameters such as the time axis, detailed description thereof is omitted here.

[実施の形態1の変形例10](ロボットカメラ)
本実施例に係るコンテンツ表現制御装置は、遠隔制御可能な監視カメラのビューを制御対象とする。ここでは、監視カメラが撮影し出力する映像を制御対象のコンテンツと考える。たとえばステッピングモータなどの機構を用いることにより、縦方向の撮影角度、横方向の撮影角度、またはズームを遠隔制御可能な監視カメラが存在するが、本発明によるコンテンツ表現制御装置の出力を用いて、x軸による制御値を縦方向の撮影角度、y軸による制御値を横方向の撮影角度、そしてz軸による制御値をズームの、それぞれの制御に用い、監視カメラの映像データはそのまま操作者の手許のコンテンツ表現制御装置に送信し、LCDに表示することにより、直感的に監視カメラのビューを制御することが可能となる。
[Modification 10 of Embodiment 1] (Robot Camera)
The content expression control apparatus according to the present embodiment controls a view of a monitoring camera that can be remotely controlled. Here, the video imaged and output by the surveillance camera is considered as the content to be controlled. For example, by using a mechanism such as a stepping motor, there are monitoring cameras that can remotely control the vertical shooting angle, the horizontal shooting angle, or the zoom, but using the output of the content expression control device according to the present invention, The x-axis control value is used for the vertical shooting angle, the y-axis control value is used for the horizontal shooting angle, and the z-axis control value is used for zooming. It is possible to intuitively control the view of the surveillance camera by transmitting to the content expression control device at hand and displaying it on the LCD.

図21は、本実施の形態1の変形例におけるコンテンツ表現制御システムの機能構成を示す図である。   FIG. 21 is a diagram illustrating a functional configuration of the content expression control system according to the modification of the first embodiment.

図21を参照して、本システムはコンテンツ表現制御装置1800と、遠隔制御可能な監視カメラ装置1810と、ガイド画像データ311の元になるガイドシートから構成される。コンテンツ表現制御装置1800において、301ないし303は図4に示す各部に準じる。表現制御データ生成部303からは、上述のx軸、y軸、および、z軸による制御値が出力され、監視カメラ装置1810に送られ1810ないし1813の各部の制御に用いられる。監視画像入力部1814によって入力された監視画像はそのままコンテンツ表現制御装置1800の表示部1805に送られ、表示される。   Referring to FIG. 21, this system includes a content expression control device 1800, a remotely-controllable surveillance camera device 1810, and a guide sheet from which guide image data 311 is based. In the content expression control apparatus 1800, reference numerals 301 to 303 correspond to the units shown in FIG. From the expression control data generation unit 303, control values based on the above-described x-axis, y-axis, and z-axis are output, sent to the monitoring camera device 1810, and used to control each unit 1810 to 1813. The monitoring image input by the monitoring image input unit 1814 is sent to the display unit 1805 of the content expression control device 1800 as it is and displayed.

このような監視カメラは、遠隔操作により移動可能な車体やロボットなどに搭載されている場合、本発明によるコンテンツ表現制御装置の出力を用いて車体やロボットなどの位置や移動方向・移動速度などを制御してもよい。   When such a surveillance camera is mounted on a vehicle body or robot that can be moved by remote control, the position, movement direction, movement speed, etc. of the vehicle body or robot are determined using the output of the content expression control device according to the present invention. You may control.

[実施の形態1の変形例11]
本実施例に係るコンテンツ表現制御装置はコンテンツの編集に際して編集ポイントの移動に用いることができる。文書編集装置、図形編集装置、または動画編集装置などを総称してコンテンツ編集装置と呼ぶことにすると、コンテンツ編集装置はコンテンツ閲覧装置の機能を含むといえる。
[Modification 11 of Embodiment 1]
The content expression control apparatus according to the present embodiment can be used to move editing points when editing content. When a document editing device, a graphic editing device, a moving image editing device, or the like is collectively referred to as a content editing device, it can be said that the content editing device includes a function of a content browsing device.

コンテンツ編集装置の編集ポイントはカーソルとして扱われることが多いが、このようなカーソルの移動に本発明による制御装置の出力を用いることができる。たとえば、カーソルの縦方向の移動にx軸による制御値、横方向の移動にy軸による制御値、をそれぞれ用いることができる。この場合カーソル移動にしたがいコンテンツのビューを移動させてもよいし、移動させなくてもよい。また、この場合、z軸の制御値を先の実施例のようなズーム制御に用いてもよいし、コンテンツのページあるいは時間軸の移動制御に用いてもよい。ページあるいは時間軸の制御に用いた場合は、編集ポイントを示すカーソルも時間軸に添って移動させるとよい。   The editing point of the content editing apparatus is often handled as a cursor, but the output of the control apparatus according to the present invention can be used for such movement of the cursor. For example, an x-axis control value can be used for the vertical movement of the cursor, and a y-axis control value can be used for the horizontal movement. In this case, the content view may be moved according to the cursor movement, or may not be moved. In this case, the z-axis control value may be used for zoom control as in the previous embodiment, or may be used for content page or time axis movement control. When used for page or time axis control, the cursor indicating the edit point may be moved along the time axis.

[実施の形態1の変形例12]
さらに、上述の装置すなわちコンピュータにおけるコンテンツ表現制御方法を、プログ
ラムとして提供することもできる。このようなプログラムは、フレキシブルディスク、CD−ROM(Compact Disc-ROM)、ROM、RAMおよびメモリカードなどのコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、通信ネットワークを介したダウンロードによって、プログラムを提供することもできる。
[Modification 12 of Embodiment 1]
Furthermore, the above-described apparatus, that is, a content expression control method in a computer can be provided as a program. Such a program can be recorded on a computer-readable recording medium such as a flexible disk, a CD-ROM (Compact Disc-ROM), a ROM, a RAM, and a memory card, and provided as a program product. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. The program can also be provided by downloading via a communication network.

提供されるプログラム製品は、ハードディスクなどのプログラム格納領域231に読み込まれて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。   The provided program product is read into a program storage area 231 such as a hard disk and executed. The program product includes the program itself and a recording medium on which the program is recorded.

以上の実施の形態および変形例において説明したように、本発明では、ズーム操作を、ビュー移動操作の一種として、スクロール操作と同時あるいは連続的な操作で行うことが可能である。   As described in the above embodiments and modifications, in the present invention, the zoom operation can be performed simultaneously or continuously with the scroll operation as a kind of view movement operation.

さらに、本発明では、その操作にあたり、システム全体の携帯性を維持しつつ、操作を行うことが可能になる。   Furthermore, according to the present invention, the operation can be performed while maintaining the portability of the entire system.

また、本発明では、特定のオブジェクトに接近してそのビューを精密に制御することが可能である。たとえば、上述した非特許文献3のようにコード枠の形状の認識による位置合わせで十分な精度を得るためには、少なくともひとつの2次元マトリックスコードの全体がカメラの撮影範囲内に十分な大きさで撮影されていることが必要であり、撮影されたコードの画像が小さいほどコード枠の形状の認識における量子化誤差が大きくなって精度が低下する。   In the present invention, it is possible to approach a specific object and precisely control its view. For example, as in Non-Patent Document 3 described above, at least one two-dimensional matrix code is sufficiently large within the photographing range of the camera in order to obtain sufficient accuracy in alignment by recognition of the shape of the code frame. The smaller the captured code image, the larger the quantization error in the recognition of the code frame shape, and the lower the accuracy.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本実施の形態におけるコンテンツ表現制御装置の具体例として携帯電話機の構成の例を示す図である。It is a figure which shows the example of a structure of a mobile telephone as a specific example of the content expression control apparatus in this Embodiment. 本実施の形態におけるコンテンツ表現制御装置の具体例として携帯電話機のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of a mobile telephone as a specific example of the content expression control apparatus in this Embodiment. 本実施の形態におけるコンテンツ表現制御装置の最小限のハードウェア構成の例を示す図である。It is a figure which shows the example of the minimum hardware constitutions of the content expression control apparatus in this Embodiment. 本実施の形態におけるコンテンツ表現制御装置の機能構成を示すブロック図であるIt is a block diagram which shows the function structure of the content expression control apparatus in this Embodiment. 本実施の形態におけるガイドシートの具体例を示す図である。It is a figure which shows the specific example of the guide sheet in this Embodiment. 本実施の形態における座標指示マーカーの具体例を示す図である。It is a figure which shows the specific example of the coordinate instruction | indication marker in this Embodiment. 本実施の形態におけるコンテンツ表現制御を実行する際の処理を示すフローチャートである。It is a flowchart which shows the process at the time of performing the content expression control in this Embodiment. 本実施の形態におけるガイドシートとその撮影部分の例を示す図である。It is a figure which shows the example of the guide sheet in this Embodiment, and its imaging | photography part. 本実施の形態におけるガイド画像データ中の重要マーカーのみを抜粋して示した図である。It is the figure which extracted and showed only the important marker in the guide image data in this Embodiment. 本実施の形態におけるコンテンツ(電子地図)およびコンテンツのビューの例を示した図である。It is the figure which showed the example of the content (electronic map) in this Embodiment, and the view of a content. 座標指示マーカーの探索方法の一例を示す図である。It is a figure which shows an example of the search method of a coordinate instruction | indication marker. 座標指示マーカーに記載された座標値を読み取るための詳細な方法を説明するための図である。It is a figure for demonstrating the detailed method for reading the coordinate value described in the coordinate instruction | indication marker. 座標指示マーカーを色情報を用いて実現した例を説明するための図である。It is a figure for demonstrating the example which implement | achieved the coordinate instruction | indication marker using color information. ガイドシート上の任意の点がCCDカメラ内の撮像面にガイド画像中の1点として投影される様子をモデル化して示した図である。It is the figure which modeled and showed a mode that the arbitrary points on a guide sheet were projected on the imaging surface in a CCD camera as one point in a guide image. ガイド画像の元になる画像の例を示す図である。It is a figure which shows the example of the image used as the origin of a guide image. ガイド画像の元になる画像の他の例を示す図である。It is a figure which shows the other example of the image used as the origin of a guide image. CCDカメラがLCDの中央の裏面に位置しない携帯電話機の例を示す図である。It is a figure which shows the example of the mobile telephone in which a CCD camera is not located in the center back surface of LCD. CCDカメラがLCDの中央の裏面に位置しない携帯電話機に対応するガイドシートの例を示す図である。It is a figure which shows the example of the guide sheet corresponding to the mobile telephone in which a CCD camera is not located in the center back surface of LCD. CCDカメラの取り付け位置が異なる複数の携帯電話機に対応するガイドシートの例を示す図である。It is a figure which shows the example of the guide sheet corresponding to the some mobile phone from which the attachment position of a CCD camera differs. CCDカメラがLCDの中央の裏面に位置しない携帯電話機に補正器具を取り付けた例を示す側面断面図および背面図である。It is side surface sectional drawing and rear view which show the example which attached the correction tool to the mobile telephone in which a CCD camera is not located in the center back surface of LCD. 遠隔制御可能な監視カメラのビューを制御対象とするコンテンツ表現制御システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the content expression control system which makes the control object the view of the surveillance camera which can be controlled remotely.

符号の説明Explanation of symbols

101 携帯電話機、102 LCD、106 CCDカメラ、311 ガイド画像データ、301 画像データ取得部、302 対応関係情報取得部、303 表現制御データ生成部、304 表現データ制御部、401 ガイドシート、402 座標指示マーカー、700 ガイド画像、900 コンテンツ、901 ビュー、1710 補正器具。   DESCRIPTION OF SYMBOLS 101 Mobile phone, 102 LCD, 106 CCD camera, 311 Guide image data, 301 Image data acquisition part, 302 Correspondence relation information acquisition part, 303 Expression control data generation part, 304 Expression data control part, 401 Guide sheet, 402 Coordinate indication marker , 700 guide images, 900 content, 901 views, 1710 corrector.

Claims (10)

操作部と、
撮影手段と、
表示部と、
通信部と、
コンテンツを記憶する記憶部と、を備えた携帯機器であって、
前記携帯機器は、前記コンテンツを前記表示部に表示する際に、前記操作部より特定の操作が入力されている間は、前記撮影手段から入力された入力画像の変化に追随して、前記コンテンツの表示位置および拡大率のうち少なくとも一方について表示を制御する携帯機器。
An operation unit;
Photographing means;
A display unit;
A communication department;
A portable device comprising a storage unit for storing content,
When the mobile device displays the content on the display unit, the content follows the change of the input image input from the photographing unit while a specific operation is input from the operation unit. A portable device that controls display of at least one of the display position and the enlargement ratio.
操作部と、
撮影手段と、
表示部と、
通信部と、
コンテンツを記憶する記憶部と、を備えた携帯機器であって、
前記携帯機器は、前記操作部より特定の操作が入力されている間に、前記撮影手段にて撮像される被撮像物の座標系において、前記携帯機器と前記被撮像物との位置関係が、前記撮影手段の撮像面に水平なX座標方向ならびにY座標方向のうち少なくともいずれか一方向に変化したことを前記撮影手段によって入力された入力画像から検出した場合において、前記コンテンツを前記表示部に表示する際に、前記撮影手段から入力された入力画像の変化に追随して、前記表示されたコンテンツの表示位置をスクロール制御する携帯機器。
An operation unit;
Photographing means;
A display unit;
A communication department;
A portable device comprising a storage unit for storing content,
The portable device has a positional relationship between the portable device and the object to be imaged in the coordinate system of the object to be imaged that is captured by the imaging unit while a specific operation is input from the operation unit. When the change in at least one of the X coordinate direction and the Y coordinate direction horizontal to the imaging surface of the imaging unit is detected from the input image input by the imaging unit, the content is displayed on the display unit. A portable device that scrolls and controls the display position of the displayed content in accordance with a change in an input image input from the photographing unit when displayed.
操作部と、
撮影手段と、
表示部と、
通信部と、
コンテンツを記憶する記憶部と、を備えた携帯機器であって、
前記携帯機器は、前記操作部より特定の操作が入力されている間に、前記撮影手段にて撮像される被撮像物の座標系において、前記携帯機器と前記被撮像物との位置関係が、前記撮影手段の撮像面に垂直なZ座標方向に変化したことを前記撮影手段によって入力された入力画像から検出した場合において、前記コンテンツを前記表示部に表示する際に、前記表示されたコンテンツの表示倍率を制御する携帯機器。
An operation unit;
Photographing means;
A display unit;
A communication department;
A portable device comprising a storage unit for storing content,
The portable device has a positional relationship between the portable device and the object to be imaged in the coordinate system of the object to be imaged that is captured by the imaging unit while a specific operation is input from the operation unit. When the change in the Z-coordinate direction perpendicular to the imaging surface of the imaging unit is detected from the input image input by the imaging unit, the content of the displayed content is displayed when the content is displayed on the display unit. A portable device that controls the display magnification.
前記表示位置を制御されるコンテンツは、前記通信部により取得したコンテンツである、請求項1に記載の携帯機器。   The mobile device according to claim 1, wherein the content whose display position is controlled is content acquired by the communication unit. 前記入力画像に含まれる輝度パターンの見かけの動きを検出することによって、前記入力画像の変化を検出することを特徴とする、請求項1または請求項4に記載の携帯機器。   The portable device according to claim 1, wherein a change in the input image is detected by detecting an apparent movement of a luminance pattern included in the input image. 前記入力画像が含むパターンを照合することによって、前記入力画像の変化を検出することを特徴とする、請求項1または請求項4に記載の携帯機器。   The portable device according to claim 1, wherein a change in the input image is detected by collating a pattern included in the input image. 前記入力画像が、前記撮影手段の撮像面に対する垂線を中心として回転した場合は、前記コンテンツの表示の制御を制限する、請求項1に記載の携帯機器。   The portable device according to claim 1, wherein when the input image is rotated about a perpendicular to the imaging surface of the imaging unit, the display control of the content is limited. 前記撮影手段を基準とする3次元の座標系において、前記座標系を構成する3つの座標軸のうち、前記撮影手段の撮像面に水平な面を構成する2軸のうち少なくともいずれか一軸を中心とする回転が行われたことを前記入力画像の変化によって抽出した場合において、前記表示位置の制御を制限する、請求項1に記載の携帯機器。   In a three-dimensional coordinate system based on the photographing unit, among three coordinate axes constituting the coordinate system, at least one of two axes constituting a plane horizontal to the imaging surface of the photographing unit is the center. 2. The portable device according to claim 1, wherein control of the display position is limited in a case where it is extracted by a change in the input image that rotation to be performed is performed. 前記撮影手段を基準とする3次元の座標系において、前記座標系を構成する3つの座標軸のうち、前記撮影手段の撮像面に対する垂線を中心とした、所定の角度以内の回転が行なわれたことを、前記入力画像の変化によって検出した場合において、前記コンテンツの表示位置の制御を制限する、請求項1に記載の携帯機器。   In a three-dimensional coordinate system based on the photographing means, rotation within a predetermined angle centered on a perpendicular to the imaging surface of the photographing means among the three coordinate axes constituting the coordinate system was performed. 2. The portable device according to claim 1, wherein control of the display position of the content is restricted when the image is detected by a change in the input image. 前記撮影手段から入力された入力画像を取得する最小時間間隔を制限する、請求項1に記載の携帯機器。   The portable device according to claim 1, wherein a minimum time interval for acquiring an input image input from the photographing unit is limited.
JP2007038207A 2007-02-19 2007-02-19 Portable device Expired - Fee Related JP4330637B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007038207A JP4330637B2 (en) 2007-02-19 2007-02-19 Portable device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007038207A JP4330637B2 (en) 2007-02-19 2007-02-19 Portable device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004099912A Division JP4550460B2 (en) 2004-03-30 2004-03-30 Content expression control device and content expression control program

Publications (2)

Publication Number Publication Date
JP2007179565A true JP2007179565A (en) 2007-07-12
JP4330637B2 JP4330637B2 (en) 2009-09-16

Family

ID=38304630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007038207A Expired - Fee Related JP4330637B2 (en) 2007-02-19 2007-02-19 Portable device

Country Status (1)

Country Link
JP (1) JP4330637B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014119994A (en) * 2012-12-17 2014-06-30 Canon Marketing Japan Inc Information processing terminal, control method for information processing terminal, and program
US8836731B2 (en) 2011-01-31 2014-09-16 Brother Kogyo Kabushiki Kaisha Non-volatile storage medium storing a portable device control program, and method of controlling a portable device

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306873A (en) * 1994-03-18 1995-11-21 Hitachi Ltd Information retrieving method using arithmetic sheet
JPH08101758A (en) * 1994-09-30 1996-04-16 Toshiba Corp Data operation device for virtual space
JPH09244853A (en) * 1996-03-14 1997-09-19 Sharp Corp Virtual body display device
JPH10240436A (en) * 1996-12-26 1998-09-11 Nikon Corp Information processor and recording medium
JPH10254614A (en) * 1997-03-06 1998-09-25 Hitachi Ltd Portable electronic processor and operation method therefor
JPH10283160A (en) * 1997-04-01 1998-10-23 Casio Comput Co Ltd Data display device and storage medium
JPH10333821A (en) * 1997-05-29 1998-12-18 Sony Corp Coordinate inputting device
JP2000137556A (en) * 1998-11-02 2000-05-16 Sony Computer Entertainment Inc Electronic equipment and method for displaying information
JP2002007027A (en) * 2000-06-27 2002-01-11 Masanori Idesawa Image information display device
JP2002351603A (en) * 2001-05-25 2002-12-06 Mitsubishi Electric Corp Portable information processor
JP2002366272A (en) * 2001-06-05 2002-12-20 Kyocera Corp Portable terminal device and method for scrolling display image
JP2003501762A (en) * 1999-06-08 2003-01-14 ヴェガ ヴィスタ インコーポレイテッド Movement detection and tracking system for controlling target viewer navigation and display
JP2003503773A (en) * 1999-06-25 2003-01-28 シーメンス アクチエンゲゼルシヤフト Apparatus and method for inputting control information into a computer system
JP2003288161A (en) * 2002-03-28 2003-10-10 Nec Corp Mobile tool
JP2003303040A (en) * 2002-04-09 2003-10-24 Sony Corp Contents generating device, contents providing device, method for creating table for contents and method for generating contents
JP2003346127A (en) * 2002-05-24 2003-12-05 Sony Corp Terminal device, content acquiring method, content providing method, and information input medium
JP2004206707A (en) * 2002-12-16 2004-07-22 Lg Electronics Inc Terminal operation controller using input video image of camera and method therefor
WO2005122415A1 (en) * 2004-06-08 2005-12-22 Sang-Baek Lee Method for displaying contents in mobile terminal having restricted size display and mobile terminal thereof

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07306873A (en) * 1994-03-18 1995-11-21 Hitachi Ltd Information retrieving method using arithmetic sheet
JPH08101758A (en) * 1994-09-30 1996-04-16 Toshiba Corp Data operation device for virtual space
JPH09244853A (en) * 1996-03-14 1997-09-19 Sharp Corp Virtual body display device
JPH10240436A (en) * 1996-12-26 1998-09-11 Nikon Corp Information processor and recording medium
JPH10254614A (en) * 1997-03-06 1998-09-25 Hitachi Ltd Portable electronic processor and operation method therefor
JPH10283160A (en) * 1997-04-01 1998-10-23 Casio Comput Co Ltd Data display device and storage medium
JPH10333821A (en) * 1997-05-29 1998-12-18 Sony Corp Coordinate inputting device
JP2000137556A (en) * 1998-11-02 2000-05-16 Sony Computer Entertainment Inc Electronic equipment and method for displaying information
JP2003501762A (en) * 1999-06-08 2003-01-14 ヴェガ ヴィスタ インコーポレイテッド Movement detection and tracking system for controlling target viewer navigation and display
JP2003503773A (en) * 1999-06-25 2003-01-28 シーメンス アクチエンゲゼルシヤフト Apparatus and method for inputting control information into a computer system
JP2002007027A (en) * 2000-06-27 2002-01-11 Masanori Idesawa Image information display device
JP2002351603A (en) * 2001-05-25 2002-12-06 Mitsubishi Electric Corp Portable information processor
JP2002366272A (en) * 2001-06-05 2002-12-20 Kyocera Corp Portable terminal device and method for scrolling display image
JP2003288161A (en) * 2002-03-28 2003-10-10 Nec Corp Mobile tool
JP2003303040A (en) * 2002-04-09 2003-10-24 Sony Corp Contents generating device, contents providing device, method for creating table for contents and method for generating contents
JP2003346127A (en) * 2002-05-24 2003-12-05 Sony Corp Terminal device, content acquiring method, content providing method, and information input medium
JP2004206707A (en) * 2002-12-16 2004-07-22 Lg Electronics Inc Terminal operation controller using input video image of camera and method therefor
WO2005122415A1 (en) * 2004-06-08 2005-12-22 Sang-Baek Lee Method for displaying contents in mobile terminal having restricted size display and mobile terminal thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8836731B2 (en) 2011-01-31 2014-09-16 Brother Kogyo Kabushiki Kaisha Non-volatile storage medium storing a portable device control program, and method of controlling a portable device
JP2014119994A (en) * 2012-12-17 2014-06-30 Canon Marketing Japan Inc Information processing terminal, control method for information processing terminal, and program

Also Published As

Publication number Publication date
JP4330637B2 (en) 2009-09-16

Similar Documents

Publication Publication Date Title
JP4584246B2 (en) How to display an output image on an object
JP3834766B2 (en) Man machine interface system
CN107251101B (en) Scene modification for augmented reality using markers with parameters
JP4137078B2 (en) Mixed reality information generating apparatus and method
US20180286098A1 (en) Annotation Transfer for Panoramic Image
EP2560145A2 (en) Methods and systems for enabling the creation of augmented reality content
US20150040074A1 (en) Methods and systems for enabling creation of augmented reality content
KR20080006006A (en) Image displaying apparatus, image displaying method, and command inputting method
US20040246229A1 (en) Information display system, information processing apparatus, pointing apparatus, and pointer cursor display method in information display system
JP2007079993A (en) Information output device
JP2011008752A (en) Document operation system, document operation method and program thereof
KR20120138187A (en) System for constructiing mixed reality using print medium and method therefor
WO2021227628A1 (en) Electronic device and interaction method therefor
CN106463001B (en) Information overlap image display device
JP6096634B2 (en) 3D map display system using virtual reality
JP2009169768A (en) Information processor and program
JP6597259B2 (en) Program, information processing apparatus, image display method, and image processing system
JP3879106B1 (en) Information output device
JP2008117083A (en) Coordinate indicating device, electronic equipment, coordinate indicating method, coordinate indicating program, and recording medium with the program recorded thereon
JP4703744B2 (en) Content expression control device, content expression control system, reference object for content expression control, and content expression control program
JPWO2018025825A1 (en) Imaging system
JP4550460B2 (en) Content expression control device and content expression control program
JP4330637B2 (en) Portable device
US20150138077A1 (en) Display system and display controll device
JP3993423B2 (en) Electronic publication browsing apparatus, electronic publication browsing program, and computer-readable recording medium recording the program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090609

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090616

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120626

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120626

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130626

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees