JP2013105466A - Display device, display method, and program - Google Patents

Display device, display method, and program Download PDF

Info

Publication number
JP2013105466A
JP2013105466A JP2011251147A JP2011251147A JP2013105466A JP 2013105466 A JP2013105466 A JP 2013105466A JP 2011251147 A JP2011251147 A JP 2011251147A JP 2011251147 A JP2011251147 A JP 2011251147A JP 2013105466 A JP2013105466 A JP 2013105466A
Authority
JP
Japan
Prior art keywords
camera
area
target
display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011251147A
Other languages
Japanese (ja)
Other versions
JP5189673B1 (en
Inventor
Takanori Murayama
隆徳 村山
Katsuya Shimazaki
勝也 島崎
Tsuyoshi Takano
剛史 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2011251147A priority Critical patent/JP5189673B1/en
Priority to PCT/JP2012/071839 priority patent/WO2013073255A1/en
Application granted granted Critical
Publication of JP5189673B1 publication Critical patent/JP5189673B1/en
Publication of JP2013105466A publication Critical patent/JP2013105466A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device or the like suitable for effectively displaying, on a screen, a position of a target existing at the outside of a field of vision of a camera.SOLUTION: In a display device 300, a detection part 301 detects a position and a direction of a camera. An acquisition part 302 acquires a position of a target in an investigation area defined by the detected position and the direction of the camera. A creation part 303 draws, at a photographic area in a projection surface, a photographed image obtained by photographing, by the camera, a visual field area defined by the position and the direction of the camera, draws a mark indicating the target at a position where the acquired position of the target is projected at a reporting area in the projection surface by a predetermined projection transformation, and thereby creating a display image. A display part 304 displays the created display image on a screen.

Description

本発明は、カメラの視野の外側にある目標物の位置を、効果的に画面に表示するのに好適な表示装置、表示方法、ならびに、プログラムに関する。   The present invention relates to a display device, a display method, and a program suitable for effectively displaying the position of a target outside the field of view of a camera on a screen.

近年、カメラによって撮影された現実世界の画像上に仮想物体を重畳させる拡張現実(AR:Augmented Reality)の表示技術が開発され、ゲームやコミュニケーションツール等として実用化が進められている。例えば、特許文献1には、AR技術を利用して仮想物体を現実世界の画像の中に重畳させる際に、仮想物体の色を現実世界の画像に合わせて補正することにより、現実世界と調和した仮想物体を表示する技術が開示されている。   In recent years, augmented reality (AR) display technology that superimposes a virtual object on a real-world image photographed by a camera has been developed and is being put to practical use as a game, a communication tool, or the like. For example, in Patent Document 1, when a virtual object is superimposed on a real-world image using AR technology, the color of the virtual object is corrected according to the real-world image, thereby harmonizing with the real world. A technique for displaying a virtual object is disclosed.

特開2010−170316号公報JP 2010-170316 A

上記のようなAR技術では、通常、撮影された画像内の対象、すなわちカメラの視野内に収まった対象について、仮想物体が重畳されることで、当該視野内の対象についての種々の情報が付加提示されるものであった。しかし一方で、カメラの視野内に収まった対象だけでなく、視野外に位置する対象についても、仮想物体を対応付けて表示させ、情報を得たい場合がある。例えば、付近にある建物等の情報を得たい場合に、その建物がカメラの視野に収まるようにカメラの向きを調整しなければ情報が得られないのでは、ユーザの手間がかかるだけでなく、ユーザがその建物の正確な位置を知らない場合等に対応できないことになる。   In the AR technology as described above, usually, a virtual object is superimposed on a target in a captured image, that is, a target that falls within the field of view of the camera, thereby adding various information about the target in the field of view. It was what was presented. However, on the other hand, there are cases where it is desired to obtain information by displaying a virtual object in association with not only an object that falls within the visual field of the camera but also an object that is located outside the visual field. For example, when you want to get information about nearby buildings, etc., if you do not adjust the camera orientation so that the building fits in the camera's field of view, you will not be able to get the information. This is not possible when the user does not know the exact location of the building.

本発明は、上記のような課題を解決するもので、カメラの視野の外側にある目標物の位置を、効果的に画面に表示するのに好適な表示装置、表示方法、ならびに、プログラムを提供することを目的とする。   The present invention solves the above-described problems, and provides a display device, a display method, and a program suitable for effectively displaying the position of a target outside the field of view of the camera on the screen. The purpose is to do.

上記目的を達成するため、本発明の第1の観点に係る表示装置は、検知部、取得部、生成部、表示部を備える表示装置であって、以下のように構成する。   In order to achieve the above object, a display device according to a first aspect of the present invention is a display device including a detection unit, an acquisition unit, a generation unit, and a display unit, and is configured as follows.

検知部は、カメラの位置および向きを検知する。   The detection unit detects the position and orientation of the camera.

すなわち、表示装置は、現実世界を撮影するカメラを備え、検知部が、当該カメラの位置および向きを検知する。例えば、ユーザが携帯可能な機器にカメラが搭載されている場合には、当該カメラの位置と向きは、ユーザの移動や操作に伴って様々に変化しうる。この場合、検知部は、カメラの位置と向きが様々に変化するたびに、カメラの現在の位置と現在の向きを検知する。   That is, the display device includes a camera that captures the real world, and the detection unit detects the position and orientation of the camera. For example, when a camera is mounted on a device that can be carried by the user, the position and orientation of the camera can change variously as the user moves and operates. In this case, the detection unit detects the current position and the current direction of the camera every time the position and the direction of the camera change variously.

ここで、「カメラの位置」とは、現実世界におけるカメラの位置であり、例えば、緯度・経度によって表される。そして、「カメラの向き」とは、上記「カメラの位置」におけるカメラの視線の向きであり、例えば、東西南北を基準とした方位角によって表される。なお、「カメラの位置」は、三次元空間における鉛直方向の位置も含め、例えば、緯度・経度に加えてさらに高度によって表されてもよい。また、「カメラの向き」は、三次元空間における鉛直方向の向きも含め、例えば、東西南北を基準とした方位角に加えてさらに水平面を基準とした仰角によって表されてもよい。   Here, the “camera position” is the position of the camera in the real world, and is represented by, for example, latitude and longitude. The “camera direction” is the direction of the line of sight of the camera at the “camera position”, and is represented by, for example, an azimuth angle based on east, west, south, and north. Note that the “camera position” may be represented by an altitude in addition to the latitude and longitude, including the position in the vertical direction in the three-dimensional space. Further, the “camera direction” may be expressed by an elevation angle with reference to the horizontal plane in addition to the azimuth angle with reference to the east, west, south, and north directions, including the vertical direction in the three-dimensional space.

なお、カメラは、表示装置と一体となっていることが典型的であるが、表示装置から分離されてもよい。例えば、カメラと、当該カメラが撮影した画像を表示する表示部とが、別の装置に分けられていてもよい。   The camera is typically integrated with the display device, but may be separated from the display device. For example, a camera and a display unit that displays an image captured by the camera may be divided into different devices.

取得部は、検知されたカメラの位置および向きにより定められる調査領域内にある目標物の位置を取得する。   The acquisition unit acquires the position of the target in the investigation area determined by the detected position and orientation of the camera.

ここで、「調査領域」とは、現実世界の三次元空間内における領域であって、上記検知部が検知したカメラの位置および向きに基づいて定められる領域である。例えば、調査領域として、カメラの位置を頂点とし、カメラの向きに開いた角錐や円錐等の立体によって囲まれた領域、カメラの位置を含む球状の立体によって囲まれた領域、カメラの位置からカメラの向きに所定の距離だけ離れた位置にある所定の立体によって囲まれた領域、等が挙げられる。取得部は、このような調査領域内にある目標物の位置を取得する。   Here, the “survey area” is an area in the real world three-dimensional space, and is an area determined based on the position and orientation of the camera detected by the detection unit. For example, as an investigation area, an area surrounded by a solid body such as a pyramid or a cone opened at the camera direction as a vertex, an area surrounded by a spherical solid including the camera position, and a camera from the camera position An area surrounded by a predetermined solid at a position separated by a predetermined distance in the direction of. The acquisition unit acquires the position of the target in such a survey area.

ここで、「目標物」とは、現実世界に存在する建物、施設、設備等であって、ユーザがその位置を知りたいと考えるものである。例えば、目標物として、ゲームセンター、コンビニエンスストア、自動販売機、バス停、等が挙げられる。取得部は、このような目標物のうち、上記のような調査領域内にある目標物についての位置の情報を取得する。   Here, the “target” is a building, facility, equipment, or the like that exists in the real world, and the user wants to know its position. For example, a game center, a convenience store, a vending machine, a bus stop, etc. are mentioned as a target. An acquisition part acquires the information of the position about the target in the above investigation areas among such targets.

生成部は、カメラの位置および向きにより定められる視野領域をカメラが撮影することにより得られる撮影画像を投影面内の写真領域に描画し、取得された目標物の位置が、所定の投影変換により投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する。   The generation unit draws a captured image obtained by the camera capturing a visual field region determined by the position and orientation of the camera in a photographic region within the projection plane, and the position of the acquired target is obtained by predetermined projection conversion. A display image is generated by drawing a mark representing the target at a position projected in the report area in the projection plane.

すなわち、生成部は、仮想の投影面を用意し、カメラによる現実世界の撮影画像と、目標物を表すマークと、をこの投影面に描画することで、後述する表示部が表示装置の画面に表示するための表示画像を生成する。ここで、投影面内における二次元領域のうち、カメラによる現実世界の撮影画像が描画される領域を写真領域といい、目標物を表すマークが描画される領域を報告領域というものとする。   That is, the generation unit prepares a virtual projection plane, and draws a real-world captured image by the camera and a mark representing the target on the projection plane, so that the display unit described later is displayed on the screen of the display device. A display image for display is generated. Here, out of the two-dimensional areas in the projection plane, an area where a real-world photographed image is drawn by a camera is called a photo area, and an area where a mark representing a target is drawn is called a report area.

このうち、カメラによる現実世界の撮影画像は、カメラの位置および向きにより定められる視野領域をカメラが撮影することにより得られる。ここで、「視野領域」とは、カメラの視野を定める三次元空間内における領域であって、例えば典型的には、カメラの位置を頂点とし、カメラの向きに開いた四角錐状の立体により定められる。このような視野領域内に収まった現実世界の建物や施設等が、仮想の投影面内の写真領域に投影されることで、カメラによる撮影画像として描画される。   Among these, a real-world photographed image by the camera is obtained by the camera photographing a field of view defined by the position and orientation of the camera. Here, the “field of view” is a region in the three-dimensional space that defines the field of view of the camera. For example, typically, the field of view is a quadrangular pyramid that has the camera position at the top and opens in the direction of the camera. Determined. A real-world building, facility, or the like that falls within such a visual field area is projected onto a photographic area within a virtual projection plane, thereby being drawn as a photographed image by a camera.

一方、カメラによる撮影画像に加えて投影面に描画される目標物を表すマークは、上記取得部によって取得された調査領域内にある目標物の位置が、所定の投影変換により投影されることにより得られる。ここで、「所定の投影変換」とは、三次元の調査領域内の任意の位置を、投影面内の二次元の報告領域内のいずれかの位置に対応付けるものである。この投影変換によって、調査領域内にある目標物の位置が投影面に投影され、投影された位置にこの目標物を表すマークが描画される。   On the other hand, the mark representing the target drawn on the projection plane in addition to the image taken by the camera is projected by the predetermined projection transformation of the position of the target in the investigation area acquired by the acquisition unit. can get. Here, the “predetermined projection transformation” refers to associating an arbitrary position in the three-dimensional survey area with any position in the two-dimensional report area in the projection plane. By this projection conversion, the position of the target in the investigation area is projected onto the projection plane, and a mark representing the target is drawn at the projected position.

表示部は、生成された表示画像を画面に表示する。   The display unit displays the generated display image on the screen.

すなわち、表示部は、上記生成部が生成した表示画像を、表示装置に備えられたモニタ等の画面に表示する。表示画像には、カメラによる撮影画像と目標物を表すマークが描画されているため、ユーザは、どこに目標物があるのかを、撮影画像を基準として、知ることができる。   That is, the display unit displays the display image generated by the generation unit on a screen such as a monitor provided in the display device. Since the displayed image is drawn with a camera image and a mark representing the target, the user can know where the target is based on the captured image.

そして、報告領域は、写真領域を含む。   The report area includes a photographic area.

すなわち、目標物を表すマークが描画される報告領域は、カメラによる撮影画像が描画される写真領域を包含するように、投影面内の二次元領域を占める。報告領域として写真領域より広い領域がとられることで、生成部は、カメラの視野よりも広い範囲についての目標物の位置を表示画像として生成することができるようになる。例えばカメラの視野内に位置する目標物については、そのマークはカメラによる撮影画像に重ねて描画され、カメラの視野外に位置する目標物については、そのマークはカメラによる撮影画像から外れた領域に描画される、ということが典型的である。   In other words, the report area in which the mark representing the target is drawn occupies a two-dimensional area in the projection plane so as to include a photograph area in which an image captured by the camera is drawn. By taking an area wider than the photographic area as the report area, the generation unit can generate the position of the target for a range wider than the field of view of the camera as a display image. For example, for a target located within the field of view of the camera, the mark is drawn on the image captured by the camera, and for a target located outside the field of view of the camera, the mark is located outside the image captured by the camera. It is typically drawn.

また、調査領域は、視野領域に含まれない部分を有する。   The investigation area has a portion that is not included in the visual field area.

すなわち、上記取得部によって目標物の位置が取得される調査領域は、カメラの視野領域に含まれない部分、すなわちカメラの視野外の三次元空間を有する。例えば、カメラの視野領域が四角錐状の立体により定められる場合には、調査領域は、この四角錐状の立体には含まれない外側の領域を有することになる。   That is, the investigation area where the position of the target is acquired by the acquisition unit has a portion that is not included in the visual field area of the camera, that is, a three-dimensional space outside the visual field of the camera. For example, when the field of view of the camera is defined by a quadrangular pyramid solid, the survey area has an outer region that is not included in the quadrangular pyramid solid.

このような構成により、本発明の表示装置は、カメラの視野領域に含まれない領域についても目標物の位置を取得し、カメラによる撮影画像と共に表示画像に表示する。これにより、目標物がカメラの視野から外れていたとしても、その目標物が、カメラの撮影画像を基準としてどのあたりの位置にあるのかを、ユーザに認識させることができる。   With such a configuration, the display device of the present invention acquires the position of the target for an area that is not included in the visual field area of the camera, and displays it on the display image together with the image captured by the camera. Thereby, even if the target is out of the field of view of the camera, the user can recognize which position the target is on the basis of the captured image of the camera.

また、本発明の表示装置において、
調査領域は、カメラの位置の近傍で視野領域を含む
ように構成することができる。
In the display device of the present invention,
The survey area can be configured to include a field of view area near the camera position.

すなわち、調査領域は、上述したように視野領域に含まれない部分を有するが、ここではより具体的に、調査領域は、カメラの位置の近傍で視野領域を含むように、視野領域に含まれない部分を有する。ここで、「カメラの位置の近傍で視野領域を含む」とは、カメラの位置からの距離が所定の距離以内に収まるような近傍の範囲において、調査領域が視野領域を包含する、ということである。すなわち、調査領域は、カメラの位置から遠方では必ずしも視野領域を包含しなくてもよいが、カメラの位置から所定の距離以内の近傍では視野領域を包含するような三次元空間内の領域となる。表示装置は、このようなカメラの位置からの距離が所定の距離以内の範囲においては、カメラの視野領域の外側に位置する目標物の位置も取得し、その目標物を表すマークをカメラによる撮影画像と共に表示画像として画面に表示する。   That is, the survey area has a portion that is not included in the visual field area as described above, but more specifically, here, the survey area is included in the visual field area so as to include the visual field area in the vicinity of the position of the camera. Has no part. Here, “including the visual field region near the camera position” means that the investigation region includes the visual field region in a nearby range where the distance from the camera position is within a predetermined distance. is there. That is, the survey area does not necessarily include the visual field area far from the camera position, but becomes a region in the three-dimensional space that includes the visual field area in the vicinity within a predetermined distance from the camera position. . The display device also acquires the position of the target located outside the visual field area of the camera within such a range that the distance from the camera position is within a predetermined distance, and the mark representing the target is captured by the camera. It is displayed on the screen as a display image together with the image.

このような構成により、本発明の表示装置は、カメラの位置の近傍で視野領域を含むように調査領域をとる。これにより、目標物がユーザの近傍にあるにもかかわらず、カメラの視野に入っていないためにその位置を取得し逃しまう、ということをなるべく防ぐことができ、より効果的に目標物の位置をユーザに提供することができる。   With such a configuration, the display device of the present invention takes an investigation region so as to include a visual field region in the vicinity of the position of the camera. As a result, it is possible to prevent the target from being missed because it is not in the field of view of the camera even though the target is in the vicinity of the user. Can be provided to the user.

また、本発明の表示装置において、
所定の投影変換は、視野領域を写真領域に投影する投影変換に一致する
ように構成することができる。
In the display device of the present invention,
The predetermined projection transformation can be configured to match the projection transformation that projects the field of view onto the photographic region.

すなわち、生成部は、調査領域にある目標物の位置を投影面内の報告領域に投影する際の所定の投影変換として、カメラによる撮影画像を描画する際の、カメラの視野領域を投影面内の写真領域に投影する投影変換と同じ投影変換を用いる。同じ投影変換が用いられることで、生成部は、カメラの視野内の目標物については、カメラによる撮影画像に重ねてその位置を示すことができ、さらにカメラの視野から外れた位置にある目標物についても、カメラによる撮影画像を基準としてどの位置にあるのかを示す表示画像を生成することができるようになる。   That is, the generation unit sets the field of view of the camera in the projection plane as the predetermined projection conversion when projecting the position of the target in the survey area onto the report area in the projection plane. The same projection transformation as that projected onto the photograph area is used. By using the same projection transformation, the generation unit can indicate the position of the target in the camera field of view by superimposing it on the image captured by the camera, and further, the target in a position outside the camera field of view. With respect to the above, it is possible to generate a display image indicating the position at which the image taken by the camera is used as a reference.

例えば、カメラの視野から左側へ外れた位置にある目標物は、表示画像内において、撮影画像の描画位置に対し、視野から外れた分だけ左側へ外れた位置に描画され、カメラの視野から右側へ外れた位置にある目標物は、表示画像内において、撮影画像の描画位置に対し、視野から外れた分だけ右側へ外れた位置に描画される。   For example, a target that is off the camera's field of view to the left is drawn in the display image at a position deviated to the left by the amount deviated from the field of view of the captured image. The target at the position deviated from the image is drawn in a position deviated to the right by the amount deviated from the field of view with respect to the drawing position of the captured image in the display image.

このような構成により、本発明の表示装置は、カメラの視野内の建物等の撮影に用いた投影変換と同じ投影変換を用いて、カメラの視野外の目標物の位置も表示画像内に表示する。これにより、カメラの視野内の目標物については、撮影された建物等に対応させてその位置をユーザに提供でき、さらにカメラの視野から外れた目標物についても、カメラの撮影画像を基準としてどの位置にあるのかをユーザに認識させることができる。   With such a configuration, the display device of the present invention displays the position of the target outside the field of view of the camera in the display image using the same projection transformation as that used for photographing a building or the like within the field of view of the camera. To do. As a result, the target in the camera field of view can be provided to the user in correspondence with the filmed building, etc., and the target that is out of the camera field of view can be selected based on the captured image of the camera. The user can recognize whether the position is present.

また、本発明の表示装置において、
視野領域は、第1の錐体により定められ、
調査領域は、第2の錐体により定められ、
第1の錐体の軸と、第2の錐体の軸とは、重なり、
第2の錐体は、第1の錐体を包含する
ように構成することができる。
In the display device of the present invention,
The field of view is defined by the first cone,
The survey area is defined by the second cone,
The axis of the first cone and the axis of the second cone overlap,
The second cone can be configured to encompass the first cone.

すなわち、カメラの視野領域と目標物の位置が取得される調査領域とは、それぞれ第1の錐体と第2の錐体という、2つの錐体(四角錐、円錐等の錐状の三次元立体)よって定められる。まず、カメラの視野領域を定める第1の錐体は、カメラの位置を頂点とし、カメラの向きへ伸びる直線を軸とする錐体であって、錐体の頂角はカメラの画角(視野角)に対応したものとなる。一般的に、カメラの視野は、水平画角と垂直画角の2つの画角を有する四角錐によって定められる場合が多いが、必ずしも四角錐に限らず、カメラの視野領域を定める第1の錐体は、四角錐以外の角錐、円錐、または、楕円錐等であってもよい。   In other words, the field-of-view area of the camera and the survey area from which the position of the target is acquired are two cones, a first cone and a second cone (three-dimensional cones such as a quadrangular pyramid and a cone). 3D). First, the first cone defining the field of view of the camera is a cone with the camera position at the apex and a straight line extending in the direction of the camera as the axis, and the apex angle of the cone is the angle of view of the camera (field of view). Corner). In general, the field of view of a camera is often determined by a quadrangular pyramid having two angles of view, a horizontal field of view and a vertical field of view. However, the field of view is not necessarily limited to a quadrangular pyramid, and the first cone that defines the field of view of the camera. The body may be a pyramid other than a quadrangular pyramid, a cone, an elliptical cone, or the like.

また、目標物の位置が取得される調査領域を定める第2の錐体は、第1の錐体と共通の軸を有する錐体であって、第1の錐体を包含するように、すなわちカメラの視野領域全体に覆い被さるように、配置される。すなわち、調査領域としてカメラの視野領域よりも広い領域がとられることになり、カメラの視野領域の外側にある目標物についても、その位置が取得され、表示画像に含まれるようになる。   In addition, the second cone that defines the survey area from which the position of the target is acquired is a cone having a common axis with the first cone, and includes the first cone, that is, It is arranged so as to cover the entire field of view of the camera. That is, an area wider than the visual field area of the camera is taken as the investigation area, and the position of the target outside the visual field area of the camera is acquired and included in the display image.

このような構成により、本発明の表示装置は、カメラの視野領域を定める第1の錐体を包含するような第2の錐体により調査領域を定め、当該調査領域内にある目標物の位置を取得する。これにより、カメラの視野外にある目標物の位置についても表示画像に表示され、あたかもカメラの視野を実際の視野よりも広げて撮影したかのように、実際のカメラの視野から外れた位置にある目標物の位置も、ユーザに認識させることができる。   With such a configuration, the display device of the present invention defines the survey area with the second cone that includes the first cone that defines the field of view of the camera, and the position of the target in the survey area. To get. As a result, the position of the target outside the field of view of the camera is also displayed in the display image, and the position of the target is out of the field of view of the actual camera, as if the field of view was taken wider than the actual field of view. The user can also recognize the position of a certain target.

また、本発明の表示装置において、
視野領域は、錐体により定められ、
調査領域は、二次曲面により定められ、
錐体の軸と、二次曲面の軸のいずれかとは、重なる
ように構成することができる。
In the display device of the present invention,
The field of view is defined by a cone,
The survey area is defined by a quadric surface,
The axis of the cone and one of the axes of the quadric surface can be configured to overlap.

すなわち、カメラの視野領域は、上記と同様に、カメラの位置を頂点とし、カメラの向きへ伸びる直線を軸とする錐体(四角錐、円錐等の錐状の三次元立体)よって定められる。一方で、目標物の位置が取得される調査領域は、上記のように第2の錐体として定められるのではなく、カメラの視野領域を定める錐体と共通の軸をそのいずれかの軸として有する二次曲面によって定められる。   That is, the camera field-of-view region is defined by a cone (three-dimensional solid such as a quadrangular pyramid or a cone) having a vertex at the camera position and a straight line extending in the direction of the camera as described above. On the other hand, the investigation area from which the position of the target is acquired is not determined as the second cone as described above, but is set to one of the axes common to the cone that defines the field of view of the camera. Determined by the quadric surface.

ここで二次曲面とは、例えば、球面、楕円面、放物面、双曲面等のような三次元空間内の曲面であり、二次曲面の軸のいずれかとは、例えば楕円面であれば3つの対称軸のいずれかをいい、あるいは放物面であればその中心軸のことをいう。このような二次曲面により定められる調査領域内にある目標物の位置が、取得部によって取得され、取得された目標物の位置を表すマークが描画された表示画像が生成されることになる。   Here, the quadric surface is a curved surface in a three-dimensional space such as a spherical surface, an ellipsoid, a paraboloid, a hyperboloid, etc., and any of the axes of the quadric surface is, for example, an ellipsoid It means one of the three symmetry axes, or the central axis if it is a paraboloid. The position of the target in the investigation area defined by such a quadric surface is acquired by the acquisition unit, and a display image on which a mark representing the acquired position of the target is drawn is generated.

このような構成により、本発明の表示装置は、目標物の位置を取得する調査領域として、二次曲面により定められる領域をとる。これにより、例えば上記第2の錐体により定めた調査領域に比べて、表示画像として表示する対象とすべき目標物の位置を、より柔軟に取得することができるようになる。   With such a configuration, the display device of the present invention takes an area defined by a quadric surface as an investigation area for acquiring the position of the target. Thereby, the position of the target to be displayed as a display image can be acquired more flexibly than, for example, the survey area defined by the second cone.

上記目的を達成するため、本発明の第2の観点に係る表示方法は、検知部、取得部、生成部、表示部を備える表示装置が実行する表示方法であって、検知工程、取得工程、生成工程、表示工程を備える。   In order to achieve the above object, a display method according to a second aspect of the present invention is a display method executed by a display device including a detection unit, an acquisition unit, a generation unit, and a display unit, and includes a detection step, an acquisition step, A generation process and a display process are provided.

検知工程では、検知部が、カメラの位置および向きを検知する。
取得工程では、取得部が、検知されたカメラの位置および向きにより定められる調査領域内にある目標物の位置を取得する。
生成工程では、生成部が、カメラの位置および向きにより定められる視野領域をカメラが撮影することにより得られる撮影画像を投影面内の写真領域に描画し、取得された目標物の位置が、所定の投影変換により投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する。
表示工程では、表示部が、生成された表示画像を画面に表示する。
そして、報告領域は、写真領域を含む。
また、調査領域は、視野領域に含まれない部分を有する。
In the detection step, the detection unit detects the position and orientation of the camera.
In the acquisition step, the acquisition unit acquires the position of the target in the investigation area determined by the detected position and orientation of the camera.
In the generation step, the generation unit draws a captured image obtained by the camera capturing a visual field region determined by the position and orientation of the camera in a photographic region in the projection plane, and the position of the acquired target is predetermined A display image is generated by drawing a mark representing the target object at a position projected in the report area in the projection plane by the projection conversion.
In the display step, the display unit displays the generated display image on the screen.
The report area includes a photographic area.
The investigation area has a portion that is not included in the visual field area.

上記目的を達成するため、本発明の第3の観点に係るプログラムは、コンピュータを、上記の表示装置として機能させ、コンピュータに、上記の表示方法の各工程を実行させるように構成する。   In order to achieve the above object, a program according to a third aspect of the present invention is configured to cause a computer to function as the above display device and to cause the computer to execute each step of the above display method.

また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読み取り可能な情報記憶媒体に記録することができる。   The program of the present invention can be recorded on a computer-readable information storage medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.

上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配付・販売することができる。また、上記情報記憶媒体は、コンピュータとは独立して配付・販売することができる。   The program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information storage medium can be distributed and sold independently from the computer.

本発明によれば、カメラの視野の外側にある目標物の位置を、効果的に画面に表示するのに好適な表示装置、表示方法、ならびに、プログラムを提供することができる。   According to the present invention, it is possible to provide a display device, a display method, and a program suitable for effectively displaying the position of a target outside the visual field of the camera on the screen.

本発明の表示装置が実現される典型的な情報処理装置の概要構成を示す図である。It is a figure which shows schematic structure of the typical information processing apparatus with which the display apparatus of this invention is implement | achieved. (a),(b)共に、本発明の表示装置が実現される典型的な情報処理装置の外観図である。(A), (b) is the external view of the typical information processing apparatus with which the display apparatus of this invention is implement | achieved. 本発明の表示装置の機能構成を示す図である。It is a figure which shows the function structure of the display apparatus of this invention. 表示装置をもったユーザが現実世界の市街地にいる様子を示す図である。It is a figure which shows a mode that the user with a display apparatus exists in the urban area of a real world. カメラの視野領域を示す図である。It is a figure which shows the visual field area | region of a camera. 実施形態1において、カメラの視野領域を包含する調査領域を示す図である。In Embodiment 1, it is a figure which shows the investigation area | region containing the visual field area | region of a camera. 実施形態1において、カメラの視野領域内の位置と調査領域内の目標物の位置とを仮想の投影面に投影する様子を示す図である。In Embodiment 1, it is a figure which shows a mode that the position in the visual field area | region of a camera and the position of the target object in an investigation area | region are projected on a virtual projection surface. 実施形態1において、表示画像を示す図である。In Embodiment 1, it is a figure which shows a display image. 本発明の実施形態に係る表示装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the display apparatus which concerns on embodiment of this invention. 実施形態2において、放物面により定められる調査領域を示す図である。In Embodiment 2, it is a figure which shows the investigation area | region defined by a paraboloid. 実施形態2において、調査領域内の目標物の位置を仮想の投影面に投影する様子を示す図である。In Embodiment 2, it is a figure which shows a mode that the position of the target object in an investigation area | region is projected on a virtual projection surface. 実施形態3において、ユーザを包含する放物面により定められる調査領域を示す図である。In Embodiment 3, it is a figure which shows the investigation area | region defined by the paraboloid which includes a user.

以下に本発明の実施形態を説明する。以下では、理解を容易にするため、携帯ゲーム機型の情報処理装置を利用して本発明が実現される実施形態を説明するが、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素を均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is realized using an information processing apparatus of a portable game machine type will be described, but the embodiment described below is for explanation, It is not intended to limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

本発明に係る表示装置が実現されうる情報処理装置として、例えば、携帯ゲーム機の他、携帯型の電話機、携帯型のカメラやスマートフォン等の電子機器等、その他の様々な情報処理装置が挙げられる。   Examples of the information processing apparatus in which the display device according to the present invention can be realized include various other information processing apparatuses such as a portable game machine, a portable phone, an electronic device such as a portable camera and a smartphone. .

(実施形態1)
図1は、本発明の実施形態に係る表示装置が実現される典型的な情報処理装置の概要構成を示す模式図である。以下、図1を参照して説明する。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing apparatus in which a display device according to an embodiment of the present invention is realized. Hereinafter, a description will be given with reference to FIG.

情報処理装置1は、処理制御部10、コネクタ11、カートリッジ12、無線通信部13、通信コントローラ14、サウンドアンプ15、スピーカ16、操作キー17、GPS処理部18、カメラ19、第1の表示部20、第2の表示部21、タッチパネル22を備える。   The information processing apparatus 1 includes a processing control unit 10, a connector 11, a cartridge 12, a wireless communication unit 13, a communication controller 14, a sound amplifier 15, a speaker 16, an operation key 17, a GPS processing unit 18, a camera 19, and a first display unit. 20, a second display unit 21, and a touch panel 22.

処理制御部10は、CPU(Central Processing Unit)コア10aと、画像処理部10bと、VRAM(Video Random Access Memory)10cと、WRAM(Work RAM)10dと、LCD(Liquid Crystal Display)コントローラ10eと、タッチパネルコントローラ10fとを備える。   The processing control unit 10 includes a CPU (Central Processing Unit) core 10a, an image processing unit 10b, a VRAM (Video Random Access Memory) 10c, a WRAM (Work RAM) 10d, an LCD (Liquid Crystal Display) controller 10e, A touch panel controller 10f.

CPUコア10aは、情報処理装置1全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。具体的には、カートリッジ12がコネクタ11に装着された状態で、カートリッジ12内のROM(Read Only Memory)12aに記憶されたプログラムやデータを読み出して、所定の処理を実行する。   The CPU core 10a controls the overall operation of the information processing apparatus 1, is connected to each component, and exchanges control signals and data. Specifically, a program and data stored in a ROM (Read Only Memory) 12a in the cartridge 12 are read out with the cartridge 12 mounted in the connector 11, and predetermined processing is executed.

画像処理部10bは、カートリッジ12内のROM 12aから読み出されたデータや、CPUコア10aにて処理されたデータを加工処理した後、これをVRAM 10cに格納する。   The image processing unit 10b processes the data read from the ROM 12a in the cartridge 12 and the data processed by the CPU core 10a, and stores the processed data in the VRAM 10c.

VRAM 10cは、表示用の情報を記憶するフレームメモリであり、画像処理部10b等により加工された画像情報を記憶する。   The VRAM 10c is a frame memory that stores information for display, and stores image information processed by the image processing unit 10b and the like.

WRAM 10dは、CPUコア10aがプログラムに従った各種処理を実行する際に必要となるワークデータ等を記憶する。   The WRAM 10d stores work data and the like necessary for the CPU core 10a to execute various processes according to the program.

LCDコントローラ10eは、画像表示部20を制御し、所定の表示用画像を表示させる。例えば、LCDコントローラ10eは、VRAM 10cに記憶された画像情報を、所定の同期タイミングで表示信号に変換し、画像表示部20に出力する。また、LCDコントローラ10eは、画像表示部20に所定の指示アイコン等を表示する。   The LCD controller 10e controls the image display unit 20 to display a predetermined display image. For example, the LCD controller 10 e converts the image information stored in the VRAM 10 c into a display signal at a predetermined synchronization timing and outputs the display signal to the image display unit 20. The LCD controller 10e displays a predetermined instruction icon or the like on the image display unit 20.

タッチパネルコントローラ10fは、タッチペンやユーザの指によるタッチパネル22への接触(タッチ)を検出する。例えば、画像表示部20に所定の指示アイコン等が表示されている状態で、タッチパネル22上の接触や解放(離れること)の検知、およびそれらの位置を検出する。   The touch panel controller 10f detects a touch (touch) on the touch panel 22 by a touch pen or a user's finger. For example, in a state where a predetermined instruction icon or the like is displayed on the image display unit 20, detection of contact or release (leaving) on the touch panel 22 and their positions are detected.

コネクタ11は、カートリッジ12と脱着自在に接続可能な端子であり、カートリッジ12が接続された際に、カートリッジ12との間で所定のデータを送受信する。   The connector 11 is a terminal that can be detachably connected to the cartridge 12, and transmits / receives predetermined data to / from the cartridge 12 when the cartridge 12 is connected.

カートリッジ12は、ROM(Read Only Memory)12aと、RAM(Random Access Memory)12bと、を備える。
ROM 12aには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データ等が記録される。
RAM 12bには、ゲームの進行状況等を示す種々のデータが記憶される。
The cartridge 12 includes a ROM (Read Only Memory) 12a and a RAM (Random Access Memory) 12b.
The ROM 12a stores a program for realizing the game and image data, sound data, and the like accompanying the game.
The RAM 12b stores various data indicating the progress of the game.

無線通信部13は、他の情報処理装置の無線通信部との間で、無線通信を行うユニットであり、図示せぬアンテナ(内蔵アンテナ等)を介して所定のデータを送受信する。なお、無線通信部13は、所定のアクセスポイントとの間で、無線LAN通信を行うこともできる。また、無線通信部13には、固有のMAC(Media Access Control)アドレスが採番されている。   The wireless communication unit 13 is a unit that performs wireless communication with a wireless communication unit of another information processing apparatus, and transmits / receives predetermined data via an antenna (not shown) (built-in antenna or the like). The wireless communication unit 13 can also perform wireless LAN communication with a predetermined access point. The wireless communication unit 13 is assigned a unique MAC (Media Access Control) address.

通信コントローラ14は、無線通信部13を制御し、所定のプロトコルに沿って、処理制御部10と他の情報処理装置の処理制御部との間で行われる通信の仲立ちをする。また、情報処理装置1を、近傍の無線アクセスポイント等を介してインターネットに接続する場合には、無線LAN(Local Area Network)に準拠したプロトコルに従って、処理制御部10と無線アクセスポイント等との間で行われる無線通信の仲立ちをする。   The communication controller 14 controls the wireless communication unit 13 and mediates communication performed between the processing control unit 10 and the processing control unit of another information processing apparatus according to a predetermined protocol. Further, when the information processing apparatus 1 is connected to the Internet via a nearby wireless access point or the like, the processing control unit 10 and the wireless access point or the like are connected according to a protocol compliant with a wireless LAN (Local Area Network) Intermediary of wireless communication performed in

サウンドアンプ15は、処理制御部10にて生成された音声信号を増幅し、スピーカ16に供給する。また、スピーカ16は、たとえば、ステレオスピーカ等からなり、サウンドアンプ15で増幅された音声信号に従って、所定の効果音や楽曲音等を出力する。   The sound amplifier 15 amplifies the audio signal generated by the processing control unit 10 and supplies it to the speaker 16. The speaker 16 is composed of, for example, a stereo speaker and outputs predetermined sound effects, music sounds, and the like according to the audio signal amplified by the sound amplifier 15.

操作キー17は、情報処理装置1に適宜配置されたキースイッチ等から構成され、ユーザの操作に従って、所定の指示入力を受け付ける。操作キー17には、音量を調節するためのボタンや、つまみ等も含まれる。各操作キー17には、圧力センサが配備され、いずれのキーが押圧操作されているかを検知することができる。ユーザは、このような操作キー17を押圧操作することで、情報処理装置1への各種操作指示を入力する。   The operation key 17 is configured by a key switch or the like appropriately disposed in the information processing apparatus 1 and receives a predetermined instruction input according to a user operation. The operation keys 17 include buttons for adjusting the volume, knobs, and the like. Each operation key 17 is provided with a pressure sensor and can detect which key is pressed. The user inputs various operation instructions to the information processing apparatus 1 by pressing such operation keys 17.

GPS処理部18は、GPS(Global Positioning System)衛星と情報のやり取りを行い、情報処理装置1の位置座標(例えば緯度・経度や高度)の情報を取得する。また、GPS処理部18は、コンパス等の方位センサを備え、情報処理装置1の向き(例えば東西南北を基準とした方位角)の情報を取得する。さらに、GPS処理部18は、重力センサ等によって重力方向を検知し、情報処理装置1が重力方向に対してどの程度傾いているかというような、傾きの情報も取得する。   The GPS processing unit 18 exchanges information with a GPS (Global Positioning System) satellite, and acquires information on position coordinates (for example, latitude / longitude and altitude) of the information processing apparatus 1. The GPS processing unit 18 includes an azimuth sensor such as a compass, and acquires information on the orientation of the information processing apparatus 1 (for example, an azimuth angle with reference to east, west, south, and north). Further, the GPS processing unit 18 detects the direction of gravity using a gravity sensor or the like, and acquires inclination information such as how much the information processing apparatus 1 is inclined with respect to the direction of gravity.

カメラ19は、情報処理装置1の上部シャーシに組み込まれており、第1の表示部20の背面方向を撮影する。例えば、カメラ19は、第1の表示部20に表示するための風景画像を撮影する。なお、カメラ19は、一例として、単焦点のレンズ及び、所定画素数の撮像素子(CMOSやCCD等)を含んで構成され、所定の焦点距離(画角α)にて、その光軸方向を中心とした画像を撮影する。   The camera 19 is incorporated in the upper chassis of the information processing apparatus 1 and photographs the back direction of the first display unit 20. For example, the camera 19 captures a landscape image to be displayed on the first display unit 20. As an example, the camera 19 includes a single-focus lens and an image sensor (CMOS, CCD, etc.) having a predetermined number of pixels, and the optical axis direction is determined at a predetermined focal length (view angle α). Take a central image.

第1の表示部20および、第2の表示部21は、LCD等からなり、LCDコントローラ10eの制御によって、画像データを適宜表示する。また、第2の表示部21は、ユーザ等がタッチパネル22に接触することで選択指示を入力するのに必要な選択ボタン(アイコン)等を適宜表示する。   The 1st display part 20 and the 2nd display part 21 consist of LCD etc., and display image data suitably by control of LCD controller 10e. In addition, the second display unit 21 appropriately displays selection buttons (icons) and the like necessary for the user or the like to touch the touch panel 22 and input a selection instruction.

タッチパネル22は、第2の表示部21の前面に重畳して配置され、タッチペンやプレイヤの指による入力を検出する。例えば、タッチパネル22は、抵抗膜方式のタッチセンサパネル等からなり、タッチペン等による押圧(押下)を検知し、その座標に応じた情報(信号等)を出力する。あるいは、タッチパネル22は、感圧式のタッチセンサパネルからなり、タッチペン等の圧力を検知するものであってもよい。   The touch panel 22 is disposed so as to be superimposed on the front surface of the second display unit 21 and detects an input by a touch pen or a player's finger. For example, the touch panel 22 includes a resistive film type touch sensor panel or the like, detects a press (pressing) with a touch pen or the like, and outputs information (signals or the like) corresponding to the coordinates. Alternatively, the touch panel 22 may be a pressure-sensitive touch sensor panel and may detect pressure such as a touch pen.

図2は、本発明の実施の形態に係る表示装置が実現される典型的な情報処理装置1の外観を示す模式図である。この情報処理装置1は、一例として、携帯型のゲーム機器であり、図2(a)に示すように、上部シャーシJsと下部シャーシKsに各部位がそれぞれ組み込まれている。上部シャーシJsと下部シャーシKsとは、接合部が軸支されており、通常のノート型のパソコン等のように、開閉可能となっている。   FIG. 2 is a schematic diagram showing an external appearance of a typical information processing apparatus 1 in which the display device according to the embodiment of the present invention is realized. As an example, the information processing apparatus 1 is a portable game machine, and each part is incorporated in an upper chassis Js and a lower chassis Ks as shown in FIG. The upper chassis Js and the lower chassis Ks are pivotally supported at the joint, and can be opened and closed like a normal notebook type personal computer.

例えば、上部シャーシJsには、第1の表示部20等が組み込まれている。一方、下部シャーシKsには、第2の表示部21やタッチパネル22等が組み込まれている。また、図2(b)に示すように、上部シャーシJsの裏面側には、カメラ19が組み込まれている。カメラ19は、上部シャーシJsを開いた状態で、第1の表示部20の背面方向を撮影する。なお、カメラ19は、一例として、単焦点のレンズを備え、人間の視角(注視した際の視角)よりもある程度広い画角αの範囲を撮影可能となっている。   For example, the first display unit 20 and the like are incorporated in the upper chassis Js. On the other hand, the second display unit 21, the touch panel 22, and the like are incorporated in the lower chassis Ks. Further, as shown in FIG. 2B, a camera 19 is incorporated on the back side of the upper chassis Js. The camera 19 photographs the back direction of the first display unit 20 with the upper chassis Js opened. As an example, the camera 19 includes a single-focus lens, and can capture a range of an angle of view α that is somewhat wider than a human viewing angle (viewing angle when gazing).

図3は、情報処理装置1を用いて実現される本発明の表示装置の機能構成を表す図である。表示装置300は、検知部301、取得部302、生成部303、表示部304を備える。   FIG. 3 is a diagram showing a functional configuration of the display device of the present invention realized by using the information processing device 1. The display device 300 includes a detection unit 301, an acquisition unit 302, a generation unit 303, and a display unit 304.

なお、表示装置300は、記憶部等も適宜備えてもよい。ここで記憶部は、例えば各種RAM等の機能によって実現され、現在時刻、ユーザが行った入力の内容や入力の時刻等、表示装置の動作に必要な種々のデータを記憶する。   Note that the display device 300 may include a storage unit and the like as appropriate. Here, the storage unit is realized by functions such as various RAMs, for example, and stores various data necessary for the operation of the display device, such as the current time, the contents of input performed by the user, and the input time.

検知部301は、カメラ19の位置および向きを検知する。すなわち、検知部301は、GPS衛星とのやり取りを行うことにより、現実世界におけるカメラ19の位置を検知し、さらに、方位センサの機能を用いることで、当該検知した位置におけるカメラ19の向きを検知する。そして、検知部301は、検知したカメラ19の位置および向きを取得部302へ供給する。このような検知部301は、例えばCPUコア10aの制御のもと、GPS処理部18やWRAM 10d等の各部が協働することによって実現される。   The detection unit 301 detects the position and orientation of the camera 19. That is, the detection unit 301 detects the position of the camera 19 in the real world by exchanging with the GPS satellite, and further detects the direction of the camera 19 at the detected position by using the function of the direction sensor. To do. Then, the detection unit 301 supplies the detected position and orientation of the camera 19 to the acquisition unit 302. Such a detection part 301 is implement | achieved when each part, such as the GPS process part 18 and WRAM 10d, cooperates under control of CPU core 10a, for example.

取得部302は、検知されたカメラ19の位置および向きにより定められる調査領域内にある目標物の位置を取得する。すなわち、取得部302は、検知部301によって検知されたカメラ19の位置および向きの情報を受け取り、当該位置および向きによって定められる三次元の調査領域内にある目標物の位置を取得する。そして、取得部302は、取得した目標物の位置を生成部303へ供給する。このような取得部302は、例えばCPUコア10aがWRAM 10d等の各部と協働することで実現される。   The acquisition unit 302 acquires the position of the target in the survey area determined by the detected position and orientation of the camera 19. In other words, the acquisition unit 302 receives information on the position and orientation of the camera 19 detected by the detection unit 301, and acquires the position of the target in the three-dimensional survey region determined by the position and orientation. Then, the acquisition unit 302 supplies the acquired position of the target to the generation unit 303. Such an acquisition unit 302 is realized, for example, when the CPU core 10a cooperates with each unit such as the WRAM 10d.

生成部303は、カメラ19の位置および向きにより定められる視野領域をカメラ19が撮影することにより得られる撮影画像を投影面内の写真領域に描画し、取得された目標物の位置が、所定の投影変換により投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する。すなわち、生成部303は、取得部302によって取得された目標物の位置を受け取り、カメラ19による撮影画像と共に、目標物の位置を所定の投影変換により投影面に投影することで、カメラ19の撮影画像と当該目標物を表すマークとを組み合わせた表示画像を生成する。そして、生成部303は、生成した表示画像を表示部304へ供給する。このような生成部303は、例えばCPUコア10aの制御のもと、画像処理部10bやVRAM 10c等の各部が協働することによって実現される。   The generation unit 303 draws a captured image obtained by the camera 19 capturing a visual field region determined by the position and orientation of the camera 19 in a photographic region within the projection plane, and the acquired target position is a predetermined value. A display image is generated by drawing a mark representing the target object at a position projected in the report area within the projection plane by projection conversion. In other words, the generation unit 303 receives the position of the target acquired by the acquisition unit 302, and projects the position of the target on the projection plane together with the captured image by the camera 19 by a predetermined projection transformation. A display image is generated by combining the image and a mark representing the target. Then, the generation unit 303 supplies the generated display image to the display unit 304. Such a generation unit 303 is realized, for example, by the cooperation of the units such as the image processing unit 10b and the VRAM 10c under the control of the CPU core 10a.

表示部304は、生成された表示画像を画面に表示する。すなわち、表示部304は、生成部303によって生成された表示画像を受け取り、第1の表示部20に表示画像を表示する。このような表示部304は、例えばCPUコア10aの制御のもと、LCDコントローラ10eやVRAM 10c等の各部が協働することによって実現される。   The display unit 304 displays the generated display image on the screen. That is, the display unit 304 receives the display image generated by the generation unit 303 and displays the display image on the first display unit 20. Such a display unit 304 is realized, for example, by the cooperation of each unit such as the LCD controller 10e and the VRAM 10c under the control of the CPU core 10a.

以下、表示装置300が目標物の位置を取得し、その位置を画面に表示する様子を具体的に説明する。ここで、具体的に目標物は、ユーザがプレイしたいと考えるゲーム機が備えられたゲームセンターであるとする。すなわち、ユーザが、あるゲームをプレイしたいと思い、そのゲーム機が設置されたゲームセンターがどこにあるのかについての情報を、表示装置300を用いて得る場合について、以下説明する。   Hereinafter, how the display device 300 acquires the position of the target and displays the position on the screen will be specifically described. Here, specifically, it is assumed that the target is a game center equipped with a game machine that the user wants to play. That is, a case where the user wants to play a certain game and obtains information about where the game center where the game machine is installed by using the display device 300 will be described below.

図4は、表示装置300をもったユーザが現実世界の市街地にいる様子を示す図である。この市街地には、複数の建物が中央の通りに面して並んで立てられており、建物の脇には、樹木や車がある。ユーザ400は、この通りの中央の位置401に立っており、表示装置300のカメラ19が通りの奥の向き402へと向くように、表示装置300を把持している。このユーザ400の位置401は、上空を周回しているGPS衛星420の機能により、ユーザ400が把持する表示装置300の位置401として検知される。   FIG. 4 is a diagram illustrating a state in which a user having the display device 300 is in a real world city area. In this urban area, a plurality of buildings are set up facing the central street, and there are trees and cars beside the buildings. The user 400 is standing at the center position 401 of the street and holds the display device 300 so that the camera 19 of the display device 300 faces in the direction 402 at the back of the street. The position 401 of the user 400 is detected as the position 401 of the display device 300 held by the user 400 by the function of the GPS satellite 420 orbiting the sky.

この通りに面した建物のうち、ビル405aとビル405bには、ユーザ400がプレイしたいと考えているゲーム機が設置されたゲームセンター、すなわち目標物410a,410bがある。一方で、ユーザ400は、そのゲームをプレイできるゲームセンター、すなわち目標物410a,410bが、どの建物に入っているかについては知らないものとする。   Among the buildings facing the street, the buildings 405a and 405b have game centers in which game machines that the user 400 wants to play are installed, that is, the targets 410a and 410b. On the other hand, it is assumed that the user 400 does not know in which building the game center where the game can be played, that is, the target objects 410a and 410b are located.

このとき、ユーザ400が、目標物410の位置を知りたいと思い、その旨の指示を、タッチパネル22等の入力装置を用いて表示装置300に入力すると、まず表示装置300の検知部301が、GPS処理部18の機能により、カメラ19の位置401と向き402を検知する。具体的に、検知部301は、GPS衛星420と情報のやり取りを行い、カメラ19の現在の位置401を検知する。また、検知部301は、GPS処理部18に備えられた方位センサと重力センサによって、カメラ19の向き402、すなわち表示装置300が現在どの方位に向けられ、重力方向からどの程度傾けられているか、を検知する。このとき、検知部301は、カメラ19の位置401として、緯度・経度・高度の情報を取得し、カメラ19の向き402として、東西南北を基準とした方位角情報および水平面を基準とした仰角の情報を取得する。   At this time, when the user 400 wants to know the position of the target 410 and inputs an instruction to that effect to the display device 300 using an input device such as the touch panel 22, first, the detection unit 301 of the display device 300 The position 401 and the direction 402 of the camera 19 are detected by the function of the GPS processing unit 18. Specifically, the detection unit 301 exchanges information with the GPS satellite 420 and detects the current position 401 of the camera 19. In addition, the detection unit 301 uses the azimuth sensor and the gravity sensor provided in the GPS processing unit 18 to determine the direction 402 of the camera 19, that is, the direction in which the display device 300 is currently directed, and the degree of inclination from the direction of gravity. Is detected. At this time, the detection unit 301 acquires latitude / longitude / altitude information as the position 401 of the camera 19, and as the orientation 402 of the camera 19, the azimuth angle information with respect to east, west, south, and north and the elevation angle with respect to the horizontal plane. Get information.

図5は、ユーザ400の真上から見たときの、検知されたカメラ19の位置401および向き402により定められるカメラ19の視野領域を示す図である。ユーザ400が把持する表示装置300に備えられたカメラ19の視野領域500は、カメラ19の位置401からカメラ19の向き402へ、カメラ19の画角αの範囲に放射状に伸びる視線によって形作られる。すなわち、図5の斜線で示した部分のように、視野領域500は、頂点であるカメラ19の位置401からカメラ19の向き402へ伸びる直線を軸とし、カメラ19の画角αに対応する頂角をもつ四角錐510により定められる。   FIG. 5 is a diagram showing the field of view of the camera 19 defined by the detected position 401 and orientation 402 of the camera 19 when viewed from directly above the user 400. The field of view 500 of the camera 19 provided in the display device 300 held by the user 400 is formed by a line of sight that extends radially from the position 401 of the camera 19 to the direction 402 of the camera 19 in the range of the angle of view α of the camera 19. That is, as shown by the hatched portion in FIG. 5, the visual field region 500 has a vertical line corresponding to the angle of view α of the camera 19 with a straight line extending from the position 401 of the camera 19 as the apex to the direction 402 of the camera 19 as an axis. It is defined by a square pyramid 510 having a corner.

このとき、ユーザ400の周囲に存在している2つの目標物410a,410bのうち、ビル405a内にある目標物410aは視野領域500内に入っているが、ビル405b内にある目標物410bは視野領域500内には入っていない。すなわち、ユーザ400が通りの奥の向き402へカメラ19を向けているため、通りの奥に位置している目標物410aは視野領域500内に収まっているが、ユーザ400のすぐ左横にある目標物410bは、視野領域500から外れてしまっている。   At this time, of the two targets 410a and 410b existing around the user 400, the target 410a in the building 405a is in the visual field area 500, but the target 410b in the building 405b is It does not enter the visual field area 500. That is, since the user 400 points the camera 19 in the back direction 402 of the street, the target object 410a located in the back of the street is within the field-of-view area 500, but is immediately to the left of the user 400. The target object 410b has deviated from the visual field region 500.

そのため、ユーザ400により近い位置にあるにもかかわらず、目標物410bが視野領域500に入るようにカメラ19の向き402を向けていないため、カメラ19による撮影画像には、目標物410bが入ったビル405bは映し出されないことになり、ユーザ400は、撮影画像に表示された建物の中からは、より遠方にある目標物410aの位置しか知ることができないことになる。そこで、本実施形態の表示装置300は、より近くにある目標物410bを見逃してしまうことをなるべく避けるため、カメラ19の視野領域500から外れた目標物410の位置についても、その位置を画面に表示し、ユーザ400に提供できるようにする。   For this reason, since the orientation of the camera 19 is not directed so that the target object 410b enters the visual field region 500 even though it is closer to the user 400, the target object 410b is included in the captured image by the camera 19. The building 405b is not projected, and the user 400 can know only the position of the target object 410a farther away from the building displayed in the captured image. In view of this, the display apparatus 300 of the present embodiment avoids overlooking the target 410b that is closer to the display device 300 as much as possible, even if the target 410 is out of the field of view 500 of the camera 19. It can be displayed and provided to the user 400.

図6は、ユーザ400の真上から見たときの、カメラ19の視野領域500を包含する調査領域を示す図である。この調査領域600は、カメラ19の視野領域500を定める四角錐510と同じく、カメラ19の位置401を頂点およびカメラ19の向き402へ伸びる直線を軸とし、四角錐510を包含するような別の四角錐610により定められる。すなわち、図6の斜線で示した部分のように、調査領域600は、視野領域500を定める第1の四角錐510を包含する第2の四角錐610により定められる三次元空間内の領域となり、画角αにより定められるカメラ19の視野領域500に対し、あたかもカメラ19の画角をさらに広げたような領域となる。   FIG. 6 is a diagram illustrating a survey area including the visual field area 500 of the camera 19 when viewed from directly above the user 400. Similar to the quadrangular pyramid 510 that defines the field-of-view area 500 of the camera 19, the survey area 600 is another axis that includes the quadrangular pyramid 510 with the position 401 of the camera 19 as the axis and a straight line extending in the direction 402 of the camera 19. It is defined by a quadrangular pyramid 610. That is, like the hatched portion in FIG. 6, the survey region 600 becomes a region in a three-dimensional space defined by the second quadrangular pyramid 610 including the first quadrangular pyramid 510 that defines the visual field region 500, It becomes an area as if the angle of view of the camera 19 is further expanded with respect to the visual field area 500 of the camera 19 defined by the angle of view α.

表示装置300の取得部302は、視野領域500内にある目標物410aの位置に加え、このようなカメラ19の視野領域500の外側にまで及ぶ調査領域600内にある目標物410bの位置も取得する。すなわち、検知部301によってカメラ19の位置401および向き402が検知されると、取得部302は、検知されたカメラ19の位置401および向き402により定められる調査領域600が占める空間を求め、それぞれの目標物410の位置が、この調査領域600内に収まっているか否かを判断し、収まっていると判断した目標物410の位置を取得する。   The acquisition unit 302 of the display device 300 acquires not only the position of the target object 410a in the visual field area 500 but also the position of the target object 410b in the survey area 600 extending to the outside of the visual field area 500 of the camera 19 as described above. To do. That is, when the detection unit 301 detects the position 401 and orientation 402 of the camera 19, the acquisition unit 302 obtains the space occupied by the survey area 600 defined by the detected position 401 and orientation 402 of the camera 19. It is determined whether or not the position of the target 410 is within the survey area 600, and the position of the target 410 that is determined to be within is acquired.

具体的に図6では、ユーザ400の左横にある目標物410bは、カメラ19の視野領域500からは外れているが、調査領域600内には収まっているため、視野領域500内の目標物410aと共に、取得部302によってその位置が取得されることになる。   Specifically, in FIG. 6, the target object 410 b on the left side of the user 400 is out of the visual field area 500 of the camera 19, but is within the survey area 600, and thus the target object in the visual field area 500. The position is acquired by the acquisition unit 302 together with 410a.

なお、調査領域600内に収まっているか否かの判断に用いられるそれぞれの目標物410の位置の情報は、あらかじめ表示装置300内の各種記憶部に記憶され、必要に応じて取得部302に読み出されてもよいし、あるいは、外部のサーバ等に記憶されており、例えばゲームAをプレイしたいユーザ400にはゲームAのゲーム機が設置されたゲームセンターの位置情報が、またゲームBをプレイしたいユーザ400にはゲームBのゲーム機が設置されたゲームセンターの位置情報が、必要に応じて無線通信部13を通じて取得されるものであってもよい。   Information on the position of each target 410 used for determining whether or not it is within the survey area 600 is stored in advance in various storage units in the display device 300 and read to the acquisition unit 302 as necessary. For example, for the user 400 who wants to play the game A, the location information of the game center where the game machine of the game A is installed is played, and the game B is played. The user 400 who wants to acquire information on the location of the game center where the game machine of the game B is installed may be acquired through the wireless communication unit 13 as necessary.

このようにして調査領域600内にある目標物410の位置が取得されると、次に表示装置300の生成部303が、取得された目標物410の位置を表示するための表示画像を、カメラ19による撮影画像に対応させて生成する。   When the position of the target 410 in the survey area 600 is acquired in this way, the generation unit 303 of the display device 300 next displays a display image for displaying the acquired position of the target 410 as a camera. 19 is generated in correspondence with the photographed image.

図7は、カメラ19の視野領域500内の位置と調査領域600内の目標物の位置とを仮想の投影面に投影する様子を示す図である。この図7は、図6と同様、カメラ19の視野領域500とこれを包含する調査領域600について、ユーザ400の真上から見たときの様子を示している。   FIG. 7 is a diagram showing a state in which the position of the camera 19 in the visual field area 500 and the position of the target in the investigation area 600 are projected on a virtual projection plane. FIG. 7 shows a state when the visual field region 500 of the camera 19 and the survey region 600 including the same are viewed from directly above the user 400, as in FIG.

表示画像を生成するため、生成部303は、仮想の投影面700を、VRAM 10c等の記憶部に用意する。具体的には図7に示すように、生成部303は、ユーザ400(カメラ19)の位置401を原点(=(0,0,0))とし、向き402の方向をz軸とする三次元座標をとり、位置401からz方向に距離aだけ離れた位置、すなわちz=aの位置に投影面700をとる。そして、投影面700内には、カメラ19による撮影画像が描画される写真領域701と、この写真領域701を包含するように、取得された目標物410を表すマークが描画される報告領域702と、が用意される。   In order to generate a display image, the generation unit 303 prepares a virtual projection plane 700 in a storage unit such as the VRAM 10c. Specifically, as illustrated in FIG. 7, the generation unit 303 performs a three-dimensional operation in which the position 401 of the user 400 (camera 19) is the origin (= (0, 0, 0)) and the direction 402 is the z-axis. Taking the coordinates, the projection plane 700 is taken at a position away from the position 401 by a distance a in the z direction, that is, at a position of z = a. In the projection plane 700, a photographic area 701 where an image taken by the camera 19 is drawn, and a report area 702 where a mark representing the acquired target object 410 is drawn so as to include the photographic area 701, Is prepared.

ここで、写真領域701は、カメラ19による撮影画像(いわゆる写真)を描画するための二次元領域である。生成部303は、この写真領域701に、カメラ19の視野領域500内に収められた建物や樹木等の位置を投影することで、カメラ19による撮影画像を描画する。すなわち、生成部303は、原点であるカメラ19の位置401から画角αの範囲で放射状に伸びる視線を投影線とし、この投影線に沿って、視野領域500内の位置を投影面700に投影する。具体的に座標を用いて説明すると、三次元座標が(x,y,z)で表される視野領域500内の任意の位置が、z=aの投影面700上では、xy座標が(x(a/z),y(a/z))で表される位置に投影されることになる。   Here, the photograph area 701 is a two-dimensional area for drawing an image captured by the camera 19 (so-called photograph). The generation unit 303 draws an image captured by the camera 19 by projecting the position of a building, a tree, or the like stored in the field of view 500 of the camera 19 onto the photograph area 701. That is, the generation unit 303 projects a line of sight that extends radially from the position 401 of the camera 19 that is the origin in the range of the angle of view α, and projects a position in the visual field 500 onto the projection plane 700 along the projection line. To do. More specifically, using coordinates, an arbitrary position in the field of view 500 whose three-dimensional coordinates are represented by (x, y, z) is xy coordinates (x It is projected at a position represented by (a / z), y (a / z)).

一方、報告領域702は、調査領域600内に位置する目標物410について、対応するマークを描画することでその位置をユーザ400に報告するための二次元領域であり、写真領域701を包含するように、投影面700内のより広い二次元領域がとられる。生成部303は、この報告領域702に、取得部302によって取得された目標物410a,410bの位置を、視野領域500内の建物や樹木等を投影した際と同じ投影変換を用いて、投影する。すなわち、目標物410a,410bの位置は、原点であるカメラ19の位置401から放射状に伸びる投影線に沿って、投影面700内の報告領域702に投影される。   On the other hand, the report area 702 is a two-dimensional area for reporting the position of the target 410 located in the survey area 600 to the user 400 by drawing a corresponding mark, and includes the photo area 701. In addition, a wider two-dimensional region in the projection plane 700 is taken. The generation unit 303 projects the positions of the targets 410a and 410b acquired by the acquisition unit 302 on the report region 702 using the same projection transformation as that for projecting a building, a tree, or the like in the visual field region 500. . That is, the positions of the targets 410a and 410b are projected onto the report area 702 in the projection plane 700 along a projection line that extends radially from the position 401 of the camera 19 that is the origin.

具体的に、三次元座標が(x1,y1,z1)で表される位置にある目標物410aは、投影線705aに沿って、xy座標が(x1(a/z1),y1(a/z1))で表される投影面700内の位置に投影される。同様に、三次元座標が(x2,y2,z2)で表される位置にある目標物410bは、投影線705bに沿って、xy座標が(x2(a/z2),y2(a/z2))で表される投影面700内の位置に投影される。   Specifically, the target 410a at the position where the three-dimensional coordinates are represented by (x1, y1, z1) has the xy coordinates of (x1 (a / z1), y1 (a / z1) along the projection line 705a. )) And projected onto a position in the projection plane 700. Similarly, the target 410b whose three-dimensional coordinates are represented by (x2, y2, z2) has xy coordinates (x2 (a / z2), y2 (a / z2)) along the projection line 705b. ) Is projected to a position in the projection plane 700 represented by

そして、生成部303は、投影された目標物410a,410bの位置に、目標物410a,410bを表すマーク710a,710bを描画し、写真領域701に描画した撮影画像とあわせることで、表示画像を生成する。   Then, the generation unit 303 draws marks 710a and 710b representing the targets 410a and 410b at the positions of the projected targets 410a and 410b, and matches the captured image drawn in the photo area 701 with the display image. Generate.

図8は、生成された表示画像を示す図である。この図8に示すように、表示画像800は、投影面700内の写真領域701に描画されたカメラ19による撮影画像810と、投影面700内の報告領域702に描画された目標物410a,410bを表すマーク710a,710b(具体的に図8では星形のマーク)と、から構成される。表示装置300の表示部304は、このような表示画像800を、第1の表示部20等の画面に表示する。   FIG. 8 is a diagram showing the generated display image. As shown in FIG. 8, the display image 800 includes an image 810 captured by the camera 19 drawn in a photographic area 701 in the projection plane 700 and targets 410 a and 410 b drawn in a report area 702 in the projection plane 700. Mark 710a, 710b (specifically, a star-shaped mark in FIG. 8). The display unit 304 of the display device 300 displays such a display image 800 on the screen of the first display unit 20 or the like.

すなわち、表示画像800には、撮影画像810として、カメラ19の視野領域500内に収められた建物、樹木、車等が、ユーザ400の位置401から見たような様子で描画され、そこに目標物410a,410bを表すマーク710a,710bが重ねて描画されることで、表示画像800を見たユーザ400は、撮影画像810を基準として目標物410a,410bがどこの位置にあるのかを認識することができるようになる。   That is, in the display image 800, a building, a tree, a car, and the like housed in the field-of-view area 500 of the camera 19 are drawn as a captured image 810 as if viewed from the position 401 of the user 400, and there When the marks 710a and 710b representing the objects 410a and 410b are drawn so as to overlap each other, the user 400 viewing the display image 800 recognizes where the target objects 410a and 410b are based on the captured image 810. Will be able to.

具体的に、図8に示すように、カメラ19の視野領域500内に位置する目標物410aを表すマーク710aは、この目標物410aが入っているビル405aが描画された撮影画像810内の位置に描画される。一方で、カメラ19の視野領域500の外側に位置する目標物410bを表すマーク710bは、この目標物410bが入っているビル405bが撮影画像810内に描画されていないため、撮影画像810内には描画されず、撮影画像810の範囲から左側に外れた位置に描画される。   Specifically, as shown in FIG. 8, the mark 710a representing the target object 410a located in the visual field area 500 of the camera 19 is a position in the captured image 810 where the building 405a containing the target object 410a is drawn. Drawn on. On the other hand, the mark 710b representing the target object 410b located outside the visual field area 500 of the camera 19 is not drawn in the captured image 810 because the building 405b containing the target object 410b is not drawn in the captured image 810. Is not drawn, and is drawn at a position deviated to the left from the range of the captured image 810.

これにより、ユーザ400は、カメラ19の視野領域500内に位置する目標物410aについて、撮影画像810を見ながら、撮影されたビル405a内にあるということを知ることができる。さらに、ユーザ400は、カメラ19の視野領域500外に位置する目標物410bについても、どの建物の中に入っているまでは知ることができないが、現在の位置401と向き402を基準としてどの辺りにあるのかについては知ることができる。そのため、ユーザ400は、より近い位置にある目標物410bの位置を見逃すことなく得ることができる。   Thereby, the user 400 can know that the target 410a located in the visual field area 500 of the camera 19 is in the captured building 405a while viewing the captured image 810. Further, the user 400 cannot know the target object 410 b located outside the visual field area 500 of the camera 19 until it is in any building, but which area is based on the current position 401 and the direction 402. You can find out if there is. Therefore, the user 400 can obtain the target 410b at a closer position without missing the position.

すなわち、所望のゲームをプレイできるゲームセンターを探しているユーザ400は、たまたまカメラ19をそちらの方向に向けていなかったから等の理由によって、より近いゲームセンター(目標物410b)の位置の情報を見逃すことなく得ることができ、わざわざ遠方にあるゲームセンター(目標物410a)にまで行く必要がなくなる。   That is, the user 400 who is looking for a game center that can play a desired game misses information on the position of a closer game center (target 410b) because the camera 19 happens to be pointed away. Without having to go to a distant game center (target 410a).

図9は、本実施形態の表示装置300に係る処理の流れを示すフローチャートである。ここまで説明してきた本実施形態において実現される処理の流れまとめて、以下に説明する。   FIG. 9 is a flowchart showing a flow of processing according to the display device 300 of the present embodiment. The processing flow realized in the present embodiment that has been described so far will be summarized below.

表示装置300の処理が開始されると、各種初期化処理を行った後、まず表示装置300は、ユーザ400から目標物410の位置を表示する旨の指示を受け付けたか否かを判定する(ステップS901)。すなわち、表示装置300は、目標物410の位置を知りたいと思ったユーザ400からの目標物410の位置を表示させるための指示が、タッチパネル22等の入力装置を介して入力されたか否かを判定する。   When the processing of the display device 300 is started, after performing various initialization processes, the display device 300 first determines whether or not it has received an instruction from the user 400 to display the position of the target 410 (step S901). That is, the display device 300 determines whether or not an instruction for displaying the position of the target 410 from the user 400 who wants to know the position of the target 410 is input via the input device such as the touch panel 22. judge.

ユーザ400からの指示を受け付けていない場合(ステップS901;NO)、処理はステップS901に留まり、ユーザ400からの指示を受け付けるまで待機する。   When the instruction from the user 400 has not been received (step S901; NO), the process remains in step S901 and waits until the instruction from the user 400 is received.

一方、ユーザ400からの指示を受け付けると(ステップS901;YES)、次に検知部301が、カメラ19の位置401および向き402を検知する(ステップS902)。すなわち、検知部301は、GPS衛星420と交信を行うことでカメラ19の現在の位置401を求め、また方位センサによってカメラ19の現在の向き402を求める。   On the other hand, when an instruction from the user 400 is received (step S901; YES), the detection unit 301 detects the position 401 and the orientation 402 of the camera 19 (step S902). That is, the detection unit 301 obtains the current position 401 of the camera 19 by communicating with the GPS satellite 420, and obtains the current direction 402 of the camera 19 by an orientation sensor.

カメラ19の位置401および向き402が検知されると、次に、取得部302が、調査領域600内にある目標物410の位置を取得する(ステップS903)。   When the position 401 and the direction 402 of the camera 19 are detected, the acquisition unit 302 then acquires the position of the target 410 within the investigation area 600 (step S903).

すなわち、取得部302は、検知されたカメラ19の現在の位置401および向き402により定められる調査領域600を求め、これらの中に位置する目標物410の位置を取得する。具体的には図6に示したように、調査領域600は、カメラ19の視野領域500を定める四角錐510を包含する第2の四角錐610として定められる。そして、この調査領域600内に位置する目標物410の位置が取得される。   That is, the acquisition unit 302 obtains the survey area 600 defined by the detected current position 401 and orientation 402 of the camera 19 and acquires the position of the target object 410 located in these. Specifically, as shown in FIG. 6, the survey area 600 is defined as a second quadrangular pyramid 610 that includes a quadrangular pyramid 510 that defines the visual field area 500 of the camera 19. Then, the position of the target 410 located in the survey area 600 is acquired.

目標物410の位置が取得されると、次に、生成部303が、カメラ19の視野領域500を投影し(ステップS904)、さらに取得された目標物410の位置を投影面700に投影することで(ステップS905)、表示画像800を生成する。   When the position of the target object 410 is acquired, the generation unit 303 then projects the visual field region 500 of the camera 19 (step S904), and further projects the acquired position of the target object 410 on the projection plane 700. (Step S905), the display image 800 is generated.

すなわち、生成部303は、図7に示したように、カメラ19の視野領域500内の位置を投影面700内の写真領域701に投影して撮影画像810を描画し、これと同じ投影変換を用いて、取得された調査領域600内の目標物410の位置を投影面700内の報告領域702に投影する。そして、投影された位置に目標物410を表すマーク710を撮影画像810に重ねて描画することで、図8に示したような表示画像800を生成する。   That is, as illustrated in FIG. 7, the generation unit 303 projects the position in the visual field region 500 of the camera 19 onto the photographic region 701 in the projection plane 700 to draw the photographed image 810, and performs the same projection conversion. Using the acquired position of the target object 410 in the survey area 600, the position is projected onto the report area 702 in the projection plane 700. Then, a mark 710 representing the target 410 is drawn on the projected position so as to overlap the captured image 810, thereby generating a display image 800 as shown in FIG.

表示画像800が生成されると、次に、表示部304が、表示画像800が画面に出力されるべき所定の同期タイミングを待って、生成された表示画像800を画面に表示する(ステップS906)。すなわち、表示部304は、生成された表示画像800を第1の表示部20等の画面に表示することで、ユーザ400に目標物410の位置の情報を提供する。   When the display image 800 is generated, the display unit 304 waits for a predetermined synchronization timing at which the display image 800 should be output on the screen, and displays the generated display image 800 on the screen (step S906). . That is, the display unit 304 provides the user 400 with information on the position of the target 410 by displaying the generated display image 800 on the screen of the first display unit 20 or the like.

その後、処理はステップS901へと戻り、再びユーザ400から目標物410の位置を表示する旨の指示を受け付けるまで待機する。   Thereafter, the process returns to step S901, and waits until an instruction to display the position of the target object 410 is received from the user 400 again.

このような構成によって、本実施形態に係る表示装置300は、カメラ19による撮影画像810と共に、カメラ19の視野領域500を投影したものと同じ投影変換を用いて、カメラ19の視野領域500を包含する調査領域600内の目標物410の位置を表示画像800内に表示する。その結果、カメラ19の視野内にある目標物410については、その位置がカメラ19の撮影画像810に重ねられて表示されるため、撮影された建物等に対応させて目標物410の位置をユーザ400に提供でき、さらにカメラ19の視野から外れた目標物410についても、カメラの撮影画像810を基準としてどの位置にあるのかをユーザ400に認識させることができる。   With such a configuration, the display device 300 according to the present embodiment includes the field-of-view area 500 of the camera 19 using the same projection transformation as that projected from the field-of-view area 500 of the camera 19 together with the captured image 810 of the camera 19. The position of the target 410 in the survey area 600 to be displayed is displayed in the display image 800. As a result, since the position of the target 410 within the field of view of the camera 19 is displayed superimposed on the captured image 810 of the camera 19, the position of the target 410 is determined by the user corresponding to the captured building or the like. 400, and the user 410 can recognize the position of the target 410 that is out of the field of view of the camera 19 based on the captured image 810 of the camera.

(実施形態2)
次に、本発明の実施形態2について説明する。上記実施形態1での表示装置300は、目標物410の位置が取得される調査領域600を、カメラ19の視野領域500を定める第1の四角錐510を包含する第2の四角錐610により定めた。それに対して本実施形態での表示装置300は、調査領域を、カメラ19の視野領域500を定める四角錐510と共通な軸を有する放物面により定める。以下、説明する。
(Embodiment 2)
Next, Embodiment 2 of the present invention will be described. In the display device 300 according to the first embodiment, the survey area 600 in which the position of the target 410 is acquired is determined by the second quadrangular pyramid 610 including the first quadrangular pyramid 510 that defines the visual field area 500 of the camera 19. It was. On the other hand, the display device 300 according to the present embodiment defines the investigation region by a paraboloid having a common axis with the quadrangular pyramid 510 that defines the visual field region 500 of the camera 19. This will be described below.

図10は、本実施形態において、放物面により定められる調査領域を示す図である。この図10は、実施形態1における図6と同様に、現実世界の市街地にいるユーザ400が、通りの真ん中の位置401から、通りの奥の向き402へ、表示装置300のカメラ19を向けている様子を示している。そして、図6と同様に、カメラ19の視野領域500は、カメラ19の位置401を頂点とし、向き402へ伸びる直線を軸とする四角錐510により定められる。   FIG. 10 is a diagram showing a survey area defined by a paraboloid in the present embodiment. In FIG. 10, as in FIG. 6 in the first embodiment, the user 400 in the urban area of the real world points the camera 19 of the display device 300 from the middle position 401 in the street to the back direction 402 in the street. It shows how it is. As in FIG. 6, the field-of-view area 500 of the camera 19 is defined by a quadrangular pyramid 510 with the position 401 of the camera 19 as a vertex and a straight line extending in the direction 402 as an axis.

一方、本実施形態における取得部302が目標物410の位置を取得するべき調査領域1000は、図6のような第2の四角錐610ではなく、図10の斜線で示した部分のように、二次曲面である放物面1010により定められる。具体的にこの放物面1010は、視野領域500を定める四角錐510と同じくカメラ19の位置401を頂点とし、視野領域500を定める四角錐510と共通の軸、すなわちカメラ19の向き402へ伸びる直線をその回転軸とする回転放物面となる。   On the other hand, the survey area 1000 in which the acquisition unit 302 should acquire the position of the target object 410 in the present embodiment is not the second square pyramid 610 as shown in FIG. It is defined by a paraboloid 1010 that is a quadric surface. Specifically, this paraboloid 1010 has the position 401 of the camera 19 as the apex, similarly to the quadrangular pyramid 510 that defines the visual field region 500, and extends in the same axis as the quadrangular pyramid 510 that defines the visual field region 500, that is, the direction 402 of the camera 19. It becomes a paraboloid of revolution with a straight line as its axis of rotation.

取得部302は、検知部301によってカメラ19の位置401および向き402が検知されると、このような放物面1010により定められる調査領域1000が占める三次元空間を求め、それぞれの目標物410の位置が、この調査領域1000内に収まっているか否かを判断し、収まっていると判断した目標物410の位置を取得する。   When the detection unit 301 detects the position 401 and the direction 402 of the camera 19, the acquisition unit 302 obtains a three-dimensional space occupied by the survey region 1000 defined by the paraboloid 1010, and obtains each target 410. It is determined whether or not the position is within the survey area 1000, and the position of the target 410 that is determined to be within is acquired.

具体的に図10では、ユーザ400の左横にある目標物410bは、カメラ19の視野領域500からは外れているが、放物面1010により定められる調査領域1000内には収まっているため、視野領域500内の目標物410aと共に、取得部302によってその位置が取得されることになる。   Specifically, in FIG. 10, the target object 410 b on the left side of the user 400 is out of the visual field area 500 of the camera 19, but is within the investigation area 1000 defined by the paraboloid 1010. The position is acquired by the acquisition unit 302 together with the target 410a in the visual field region 500.

調査領域1000に放物面1010を用いることで、第2の四角錐610を用いたときに比べ、調査領域1000は、特にカメラ19の位置401の近傍においてより十分に、視野領域500よりも広い領域を占めることになる。その結果、本実施形態における表示装置300は、目標物410bのように、ユーザ400の近くにあるにもかかわらずカメラ19の視野領域500から外れてしまった目標物410について、その位置が取得され逃されてしまうということを、より効果的に防ぐことができるようになる。   By using the paraboloid 1010 for the investigation region 1000, the investigation region 1000 is more sufficiently wider than the visual field region 500, particularly in the vicinity of the position 401 of the camera 19, as compared with the case where the second square pyramid 610 is used. Will take up space. As a result, the display device 300 according to the present embodiment acquires the position of the target object 410 that is out of the visual field area 500 of the camera 19 even though it is near the user 400 like the target object 410b. It is possible to more effectively prevent being missed.

このようにして放物面1010により定められる調査領域1000内にある目標物410の位置が取得されると、次に表示装置300の生成部303が、取得された目標物410の位置を表示するための表示画像を、カメラ19による撮影画像に対応させて生成する。   When the position of the target 410 within the survey area 1000 defined by the paraboloid 1010 is acquired in this way, the generation unit 303 of the display device 300 displays the acquired position of the target 410 next. A display image for this purpose is generated in correspondence with an image captured by the camera 19.

図11は、調査領域1000内の目標物の位置を仮想の投影面700に投影する様子を示す図である。この図11は、図10と同様、視野領域500と調査領域1000について、ユーザ400の真上から見たときの様子を示している。   FIG. 11 is a diagram illustrating a state in which the position of the target in the survey area 1000 is projected onto the virtual projection plane 700. FIG. 11 shows a state when the visual field region 500 and the survey region 1000 are viewed from directly above the user 400, as in FIG.

表示画像を生成するため、生成部303は、実施形態1における図7と同様に、ユーザ400(カメラ19)の位置401を原点(=(0,0,0))とし、向き402の方向をz軸とする三次元座標をとり、位置401からz方向に距離aだけ離れた位置、すなわちz=aの位置に仮想の投影面700をとる。そして、投影面700内に、カメラ19による撮影画像が描画される写真領域701と、この写真領域701を包含するように、取得された目標物410を表すマークが描画される報告領域702と、を用意する。   In order to generate the display image, the generation unit 303 sets the position 401 of the user 400 (camera 19) as the origin (= (0, 0, 0)) and sets the direction of the direction 402 as in FIG. Taking a three-dimensional coordinate as the z axis, a virtual projection plane 700 is taken at a position a distance a from the position 401 in the z direction by a distance a, that is, a position of z = a. In the projection plane 700, a photographic area 701 where an image taken by the camera 19 is drawn, a report area 702 where a mark representing the acquired target 410 is drawn so as to include the photographic area 701, Prepare.

ここで、投影面700内の写真領域701には、実施形態1と同様に、視野領域500内に収められた建物や樹木等の位置がカメラ19の視線に沿って投影されることで、カメラ19による撮影画像が描画される。一方で、投影面700内の報告領域702には、調査領域1000内に位置する目標物410について、その位置が投影され、投影された位置に目標物410を表すマークが描画されるが、このとき、実施形態1ではカメラ19による撮影画像の描画と同じ投影変換が用いられたのに対し、本実施形態では、放物線を投影線とする投影変換が用いられる。   Here, in the photographic area 701 in the projection plane 700, as in the first embodiment, the position of a building, a tree, or the like housed in the visual field area 500 is projected along the line of sight of the camera 19. The photographed image by 19 is drawn. On the other hand, in the report area 702 in the projection plane 700, the position of the target object 410 located in the survey area 1000 is projected, and a mark representing the target object 410 is drawn at the projected position. At the same time, in the first embodiment, the same projection transformation as that for drawing a captured image by the camera 19 is used, whereas in this embodiment, the projection transformation using a parabola as a projection line is used.

具体的には図11に示すように、原点であるカメラ19の位置401を頂点とし、カメラ19の向き402へ伸びる直線を軸とする放物線を投影線とする。そして、調査領域1000内の任意の位置が、この投影線に沿って、z=aの位置にある投影面700に投影される。具体的に座標を用いて説明すると、三次元座標が(x,y,z)で表される調査領域1000内の任意の位置が、z=aの投影面700上では、xy座標が(x√(a/z),y√(a/z))で表される位置に投影されることになる。   Specifically, as shown in FIG. 11, a parabola whose axis is a straight line extending in the direction 402 of the camera 19 is a projection line. Then, an arbitrary position in the survey area 1000 is projected onto the projection plane 700 at the position z = a along this projection line. More specifically, using coordinates, an arbitrary position in the investigation area 1000 whose three-dimensional coordinates are represented by (x, y, z) is xy coordinates on the projection plane 700 with z = a (x Projected to a position represented by √ (a / z), y√ (a / z)).

すなわち、三次元座標が(x1,y1,z1)で表される位置にある目標物410aは、投影線1105aに沿って、xy座標が(x1√(a/z1),y1√(a/z1))で表される投影面700内の位置に投影される。同様に、三次元座標が(x2,y2,z2)で表される位置にある目標物410bは、投影線1105bに沿って、xy座標が(x2√(a/z2),y2√(a/z2))で表される投影面700内の位置に投影される。   In other words, the target 410a whose three-dimensional coordinates are represented by (x1, y1, z1) has xy coordinates (x1√ (a / z1), y1√ (a / z1) along the projection line 1105a. )) And projected onto a position in the projection plane 700. Similarly, the target 410b whose three-dimensional coordinates are represented by (x2, y2, z2) has xy coordinates (x2√ (a / z2), y2√ (a /) along the projection line 1105b. Projected at a position in the projection plane 700 represented by z2)).

そして、生成部303は、投影された目標物410a,410bの位置に、目標物410a,410bを表すマーク710a,710bを描画し、写真領域701に描画した撮影画像とあわせることで、表示画像を生成する。生成された表示画像は、表示部304によって表示装置300の画面に表示される。これにより、ユーザ400は、カメラ19による撮影画像を基準として、目標物410a,410bがどのあたりの位置にあるのかを認識することができる。   Then, the generation unit 303 draws marks 710a and 710b representing the targets 410a and 410b at the positions of the projected targets 410a and 410b, and matches the captured image drawn in the photo area 701 with the display image. Generate. The generated display image is displayed on the screen of the display device 300 by the display unit 304. Thereby, the user 400 can recognize which position the target objects 410a and 410b are on the basis of the image captured by the camera 19.

なお、このように放物線を投影線とする投影変換により目標物410の位置が投影面700に投影されることにより、投影された目標物410の位置は、カメラ19の視線を投影線として投影された撮影画像の描画位置に対し、ずれが生じるものとなる。すなわち、例えばカメラ19の視野領域500内にある目標物410aは、実際にはビル405a内にあるにもかかわらず、描画された撮影画像内のビル405aの位置からずれた位置に投影されることになる。しかし、撮影画像の中心付近では、投影線として用いられた放物線は直線形状に近くなるため、投影された目標物410の位置と撮影画像の描画位置とのずれは小さくなるし、そもそも検知部301によって検知されるカメラ19の位置401や向き402、さらには取得部302によって取得される目標物410の位置にも一定の誤差が含まれうる。そのため、本実施形態の表示装置300は、投影された目標物410の位置と撮影画像の描画位置とのずれをユーザ400にそれほど感じさせることなく、目標物410の位置を提供できる。   In addition, the position of the target 410 is projected onto the projection plane 700 by the projection conversion using the parabola as the projection line in this way, so that the projected position of the target 410 is projected with the line of sight of the camera 19 as the projection line. Deviation occurs with respect to the drawing position of the captured image. That is, for example, the target object 410a in the visual field 500 of the camera 19 is projected to a position shifted from the position of the building 405a in the drawn photographed image even though it is actually in the building 405a. become. However, since the parabola used as the projection line is close to a straight line near the center of the photographed image, the deviation between the position of the projected target 410 and the drawing position of the photographed image becomes small. A certain error may also be included in the position 401 and orientation 402 of the camera 19 detected by the above, and the position of the target 410 acquired by the acquisition unit 302. Therefore, the display device 300 according to the present embodiment can provide the position of the target 410 without causing the user 400 to feel a great difference between the position of the projected target 410 and the drawing position of the captured image.

このような構成によって、本実施形態に係る表示装置300は、目標物410の位置を取得する調査領域1000として、放物面1010により定められる領域をとる。そして、取得した目標物410の位置を、放物線を投影線とする投影変換を用いて投影面700に投影し、カメラ19による撮影画像と共に表示画像として画面に表示する。その結果、特にカメラ19の位置401の近傍において、目標物410の位置を取得する調査領域1000を広くとることができ、ユーザ400の近くにある目標物410の位置を取得し逃すことを効果的に防ぎつつ、その位置の情報をユーザ400に提供することができる。   With such a configuration, the display device 300 according to the present embodiment takes an area defined by the paraboloid 1010 as the survey area 1000 for acquiring the position of the target 410. Then, the acquired position of the target 410 is projected onto the projection plane 700 using projection transformation with a parabola as a projection line, and is displayed on the screen as a display image together with an image captured by the camera 19. As a result, particularly in the vicinity of the position 401 of the camera 19, the survey area 1000 for acquiring the position of the target 410 can be widened, and it is effective to acquire and miss the position of the target 410 near the user 400. The position information can be provided to the user 400 while preventing it.

(実施形態3)
次に、本発明の実施形態3について説明する。上記実施形態2での表示装置300は、目標物410の位置が取得される調査領域1000を、ユーザ400(カメラ19)の位置401を頂点とする放物面1010により定めた。それに対して本実施形態での表示装置300は、調査領域を、ユーザ400の後方の位置を頂点とし、ユーザ400を包含するような放物面により定める。以下、説明する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. In the display device 300 according to the second embodiment, the survey area 1000 where the position of the target 410 is acquired is defined by the paraboloid 1010 having the position 401 of the user 400 (camera 19) as a vertex. On the other hand, the display device 300 according to the present embodiment defines the survey area by a paraboloid that includes the user 400 with the position behind the user 400 as a vertex. This will be described below.

図12は、ユーザ400を包含する放物面により定められる調査領域を示す図である。この図12は、実施形態2における図10と同様に、現実世界の市街地にいるユーザ400が、通りの真ん中の位置401から、通りの奥の向き402へ、表示装置300のカメラ19を向けている様子を示している。このときのカメラ19の視野領域500は、図10と同様に、カメラ19の位置401を頂点とし、向き402へ伸びる直線を軸とする四角錐510により定められる。   FIG. 12 is a diagram illustrating a survey area defined by a paraboloid that includes the user 400. In FIG. 12, as in FIG. 10 in the second embodiment, the user 400 in the urban area of the real world directs the camera 19 of the display device 300 from the middle position 401 of the street to the back direction 402 of the street. It shows how it is. The field-of-view area 500 of the camera 19 at this time is defined by a quadrangular pyramid 510 with the position 401 of the camera 19 as a vertex and a straight line extending in the direction 402 as an axis, as in FIG.

一方、本実施形態における取得部302が目標物410の位置を取得するべき調査領域1200は、図12の斜線で示した部分のように、ユーザ400を包含するような放物面1210により定められる。具体的にこの放物面1210は、ユーザ400(カメラ19)の位置から距離bだけ後方の位置を頂点とし、視野領域500を定める四角錐510と共通の軸、すなわちカメラ19の向き402へ伸びる直線をその回転軸とする回転放物面となる。   On the other hand, the survey area 1200 in which the acquisition unit 302 should acquire the position of the target 410 in the present embodiment is defined by a paraboloid 1210 that includes the user 400 as shown by the hatched portion in FIG. . Specifically, the paraboloid 1210 extends from the position of the user 400 (camera 19) at a distance b to the apex, and extends in the same axis as the quadrangular pyramid 510 that defines the visual field 500, that is, the direction 402 of the camera 19. It becomes a paraboloid of revolution with a straight line as its axis of rotation.

このようにカメラ19の向き402に対し後方の領域にまで調査領域1200をとることで、カメラ19の前方だけでなく、後方に位置する目標物410の位置が取得されることになる。具体的に図12において、ビル405c内にある目標物410cは、ユーザ400の右側後方にあり、カメラ19の視野領域500からは外れているが、放物面1210により定められる調査領域1200内には収まっているため、他の目標物410a,410bと共に、取得部302によってその位置が取得されることになる。   In this way, by taking the survey area 1200 to the rear area with respect to the direction 402 of the camera 19, the position of the target object 410 positioned not only in front of the camera 19 but also in the rear is acquired. Specifically, in FIG. 12, the target object 410 c in the building 405 c is behind the right side of the user 400 and is out of the visual field area 500 of the camera 19, but in the investigation area 1200 defined by the paraboloid 1210. Therefore, the position is acquired by the acquisition unit 302 together with the other targets 410a and 410b.

取得された目標物410a,410b,410cの位置は、実施形態2と同様に、放物線の投影線に沿って仮想の投影面に投影される。投影される位置について具体的に座標を用いて説明すると、実施形態2における図11と同様に、ユーザ400(カメラ19)の位置401を原点(=(0,0,0))とし、向き402の方向をz軸とする三次元座標をとり、位置401からz方向に距離aだけ離れた位置に仮想の投影面をとった場合、三次元座標が(x,y,z)で表される調査領域1200内の任意の位置が、投影面上では、xy座標が(x√(a+b)/√(z+b),y√(a+b)/√(z+b))で表される位置に投影されることになる。   The acquired positions of the target objects 410a, 410b, and 410c are projected onto a virtual projection plane along the parabolic projection line, as in the second embodiment. The projected position will be specifically described using coordinates. Similarly to FIG. 11 in the second embodiment, the position 401 of the user 400 (camera 19) is the origin (= (0, 0, 0)), and the direction 402 If the virtual projection plane is taken at a position a distance a from the position 401 in the z direction, the three-dimensional coordinates are represented by (x, y, z). An arbitrary position in the survey area 1200 is projected on the projection plane at a position where the xy coordinates are represented by (x√ (a + b) / √ (z + b), y√ (a + b) / √ (z + b)). It will be.

そして、投影面に投影された目標物410a,410b,410cの位置に、目標物410a,410b,410cを表すマークが描画され、カメラ19による撮影画像と共に表示画像として画面に表示される。これにより、ユーザ400は、カメラ19による撮影画像を基準として、目標物410a,410b,410cがどのあたりの位置にあるのかについての情報を得ることができる。   Then, marks representing the target objects 410a, 410b, and 410c are drawn at the positions of the target objects 410a, 410b, and 410c projected on the projection plane, and are displayed on the screen as a display image together with the images captured by the camera 19. Thereby, the user 400 can obtain information on which position the target objects 410a, 410b, and 410c are located with reference to an image captured by the camera 19.

このような構成によって、本実施形態に係る表示装置300は、目標物410の位置を取得する調査領域1200として、ユーザ400を包含するような放物面1210により定める。その結果、特にカメラ19の位置401の近傍において、ユーザ400の後方にまで目標物410の位置を取得する調査領域1200をとることができ、ユーザ400の後方にある目標物410についても、その位置の情報をユーザ400に提供することができる。   With such a configuration, the display device 300 according to the present embodiment defines the paraboloid 1210 that includes the user 400 as the survey area 1200 for acquiring the position of the target 410. As a result, particularly in the vicinity of the position 401 of the camera 19, it is possible to take the survey area 1200 for acquiring the position of the target object 410 to the rear of the user 400. Can be provided to the user 400.

(他の実施形態)
以上、本発明の実施の形態について説明したが、本発明は、上述した実施形態に限定されず、種々の変形および応用が可能である。また、上述した実施形態の各構成要素を自由に組み合わせることも可能である。
(Other embodiments)
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, A various deformation | transformation and application are possible. Moreover, it is also possible to freely combine the constituent elements of the above-described embodiments.

例えば、上記実施形態では、取得部302に取得される目標物410は、ユーザがプレイしたいと考えるゲーム機が備えられたゲームセンターであるとして説明したが、これに限らず、ユーザがその位置を知りたいと考える建物、施設、設備等であれば、例えばコンビニエンスストア、自動販売機、バス停、等のようなものでもよい。   For example, in the above-described embodiment, the target 410 acquired by the acquisition unit 302 has been described as a game center provided with a game machine that the user wants to play. For example, a convenience store, a vending machine, a bus stop, or the like may be used as long as it is a building, facility, equipment, or the like that you want to know.

また、上記実施形態では、表示装置300の検知部301は、カメラ19の位置401として、緯度・経度・高度の情報を取得し、カメラ19の向き402として、東西南北を基準とした方位角情報および水平面を基準とした仰角の情報を取得した。しかしこれに限らず、緯度・経度以外の座標系によってカメラ19の位置401を取得してもよいし、東西南北を基準とした方位角以外の情報によってカメラ19の向き402を取得してもよい。   In the above embodiment, the detection unit 301 of the display device 300 acquires latitude / longitude / altitude information as the position 401 of the camera 19, and azimuth angle information with reference to east, west, south, and north as the direction 402 of the camera 19. And the elevation angle information with reference to the horizontal plane was acquired. However, the present invention is not limited to this, and the position 401 of the camera 19 may be acquired by a coordinate system other than latitude and longitude, or the direction 402 of the camera 19 may be acquired by information other than the azimuth angle with reference to east, west, south, and north. .

また、検知部301は、カメラ19の位置401や向き402として、鉛直方向の情報、すなわち高度や仰角を取得せず、水平方向の情報、すなわち緯度・経度や方位角のみを検知するようにしてもよい。検知する情報から鉛直方向の情報を省略することで、表示画像に表示される目標物410の位置の鉛直方向の精度、すなわち目標物410がどれくらいの高さの位置にあるのかの情報が低下することになるが、ユーザ400が目標物410の位置を知るためには、水平方向の位置情報を認識できればよい場合も多い。そのため、検知する情報から鉛直方向の情報を省略することで、より簡略化された表示装置300の構成によって、カメラの外側にある目標物410の位置をユーザ400に提供することが可能になる。   In addition, the detection unit 301 does not acquire vertical information, that is, altitude and elevation angle, as the position 401 and orientation 402 of the camera 19, and detects only horizontal information, that is, latitude / longitude and azimuth. Also good. By omitting the information in the vertical direction from the information to be detected, the accuracy in the vertical direction of the position of the target 410 displayed in the display image, that is, the information on how high the target 410 is located is lowered. However, in order for the user 400 to know the position of the target 410, there are many cases where it is only necessary to recognize the position information in the horizontal direction. Therefore, by omitting the information in the vertical direction from the information to be detected, the position of the target object 410 outside the camera can be provided to the user 400 with the simplified configuration of the display device 300.

また、上記実施形態2,3では、目標物410の位置が取得される調査領域1000,1200は、カメラ19の視野領域500を定める四角錐510と共通の軸を回転軸として有する回転放物面1010,1210により定められた。しかし回転放物面に限らず、調査領域は、その他の二次曲面により定められてもよい。例えば、放物面に限らず、球面、楕円面、双曲面、円錐面により定められてもよいし、放物面であっても、回転放物面のような回転対称なものに限らず、放物線を鉛直方向に柱状に伸ばした放物線柱面のような立体形状により定められてもよい。本発明の表示装置300は、このような種々の二次曲面を、目標物410の位置を取得したい領域に応じて、柔軟に設計することができる。   In the second and third embodiments, the survey areas 1000 and 1200 in which the position of the target 410 is acquired have a paraboloid of revolution having a common axis with the quadrangular pyramid 510 that defines the visual field area 500 of the camera 19. 1010, 1210. However, the investigation area is not limited to the paraboloid of revolution, and may be defined by other quadric surfaces. For example, it is not limited to a paraboloid, but may be defined by a spherical surface, an elliptical surface, a hyperboloid, a conical surface, or even a paraboloid, not limited to a rotationally symmetric one such as a rotating paraboloid, It may be determined by a three-dimensional shape such as a parabolic column surface obtained by extending a parabola in a columnar shape in the vertical direction. The display device 300 of the present invention can flexibly design such various quadric surfaces according to the region where the position of the target 410 is desired to be acquired.

以上説明したように、本発明によれば、カメラの視野の外側にある目標物の位置を、効果的に画面に表示するのに好適な表示装置、表示方法、ならびに、プログラムを提供することができる。   As described above, according to the present invention, it is possible to provide a display device, a display method, and a program suitable for effectively displaying the position of a target outside the field of view of the camera on the screen. it can.

1 情報処理装置
10 処理制御部
10a CPUコア
10b 画像処理部
10c VRAM
10d WRAM
10e LCDコントローラ
10f タッチパネルコントローラ
11 コネクタ
12 カートリッジ
12a ROM
12b RAM
13 無線通信部
14 通信コントローラ
15 サウンドアンプ
16 スピーカ
17 操作キー
18 GPS処理部
19 カメラ
20 第1の表示部
21 第2の表示部
22 タッチパネル
300 表示装置
301 検知部
302 取得部
303 生成部
304 表示部
400 ユーザ
401 (カメラの)位置
402 (カメラの)向き
405a,405b,405c ビル
410a,410b,410c 目標物
420 GPS衛星
500 視野領域
510 四角錐
600,1000,1200 調査領域
610 第2の四角錐
700 投影面
701 写真領域
702 報告領域
705a,705b,1105a,1105b 投影線
710a,710b マーク
800 表示画像
810 撮影画像
1010,1210 放物面
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 10 Processing control part 10a CPU core 10b Image processing part 10c VRAM
10d WRAM
10e LCD controller 10f Touch panel controller 11 Connector 12 Cartridge 12a ROM
12b RAM
DESCRIPTION OF SYMBOLS 13 Wireless communication part 14 Communication controller 15 Sound amplifier 16 Speaker 17 Operation key 18 GPS processing part 19 Camera 20 1st display part 21 2nd display part 22 Touch panel 300 Display apparatus 301 Detection part 302 Acquisition part 303 Generation part 304 Display part 400 User 401 (Camera) position 402 (Camera) orientation 405a, 405b, 405c Building 410a, 410b, 410c Target 420 GPS satellite 500 Field of view 510 Square pyramid 600, 1000, 1200 Investigation area 610 Second square pyramid 700 Projection surface 701 Photo area 702 Report area 705a, 705b, 1105a, 1105b Projection line 710a, 710b Mark 800 Display image 810 Captured image 1010, 1210 Paraboloid

Claims (7)

カメラの位置および向きを検知する検知部、
前記検知されたカメラの位置および向きにより定められる調査領域内にある目標物の位置を取得する取得部、
前記カメラの位置および向きにより定められる視野領域を前記カメラが撮影することにより得られる撮影画像を投影面内の写真領域に描画し、前記取得された目標物の位置が、所定の投影変換により前記投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する生成部、
前記生成された表示画像を画面に表示する表示部
を備え、
前記報告領域は、前記写真領域を含み、
前記調査領域は、前記視野領域に含まれない部分を有する
ことを特徴とする表示装置。
A detector that detects the position and orientation of the camera,
An acquisition unit for acquiring a position of a target in an investigation region determined by the detected position and orientation of the camera;
A photographed image obtained by photographing the visual field region defined by the position and orientation of the camera is photographed in a photographic region within a projection plane, and the position of the acquired target is determined by a predetermined projection conversion. A generation unit that generates a display image by drawing a mark representing the target object at a position projected in a report area in the projection plane;
A display unit for displaying the generated display image on a screen;
The reporting area includes the photographic area;
The survey area has a portion not included in the visual field area.
請求項1に記載の表示装置であって、
前記調査領域は、前記カメラの位置の近傍で前記視野領域を含む
ことを特徴とする表示装置。
The display device according to claim 1,
The investigation area includes the visual field area in the vicinity of the position of the camera.
請求項1または2に記載の表示装置であって、
前記所定の投影変換は、前記視野領域を前記写真領域に投影する投影変換に一致する
ことを特徴とする表示装置。
The display device according to claim 1 or 2,
The predetermined projection conversion coincides with a projection conversion for projecting the visual field area onto the photographic area.
請求項1から3のいずれか1項に記載の表示装置であって、
前記視野領域は、第1の錐体により定められ、
前記調査領域は、第2の錐体により定められ、
前記第1の錐体の軸と、前記第2の錐体の軸とは、重なり、
前記第2の錐体は、前記第1の錐体を包含する
ことを特徴とする表示装置。
The display device according to any one of claims 1 to 3,
The field of view is defined by a first cone;
The survey area is defined by a second cone;
The axis of the first cone and the axis of the second cone overlap,
The display device characterized in that the second cone includes the first cone.
請求項1から3のいずれか1項に記載の表示装置であって、
前記視野領域は、錐体により定められ、
前記調査領域は、二次曲面により定められ、
前記錐体の軸と、前記二次曲面の軸のいずれかとは、重なる
ことを特徴とする表示装置。
The display device according to any one of claims 1 to 3,
The field of view is defined by a cone;
The survey area is defined by a quadric surface,
The display device, wherein the axis of the cone and one of the axes of the quadric surface overlap.
検知部、取得部、生成部、表示部を備える表示装置が実行する表示方法であって、
前記検知部が、カメラの位置および向きを検知する検知工程、
前記取得部が、前記検知されたカメラの位置および向きにより定められる調査領域内にある目標物の位置を取得する取得工程、
前記生成部が、前記カメラの位置および向きにより定められる視野領域を前記カメラが撮影することにより得られる撮影画像を投影面内の写真領域に描画し、前記取得された目標物の位置が、所定の投影変換により前記投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する生成工程、
前記表示部が、前記生成された表示画像を画面に表示する表示工程
を備え、
前記報告領域は、前記写真領域を含み、
前記調査領域は、前記視野領域に含まれない部分を有する
ことを特徴とする表示方法。
A display method executed by a display device including a detection unit, an acquisition unit, a generation unit, and a display unit,
A detection step in which the detection unit detects the position and orientation of the camera;
An acquisition step in which the acquisition unit acquires a position of a target in a survey area determined by the detected position and orientation of the camera;
The generation unit draws a photographed image obtained by the camera photographing a visual field region determined by the position and orientation of the camera in a photographic region within a projection plane, and the position of the acquired target is predetermined. Generating a display image by drawing a mark representing the target at a position projected in the report area in the projection plane by the projection conversion of
The display unit includes a display step of displaying the generated display image on a screen;
The reporting area includes the photographic area;
The survey method has a portion not included in the visual field region.
コンピュータを、
カメラの位置および向きを検知する検知部、
前記検知されたカメラの位置および向きにより定められる調査領域内にある目標物の位置を取得する取得部、
前記カメラの位置および向きにより定められる視野領域を前記カメラが撮影することにより得られる撮影画像を投影面内の写真領域に描画し、前記取得された目標物の位置が、所定の投影変換により前記投影面内の報告領域内に投影される位置に当該目標物を表すマークを描画することにより、表示画像を生成する生成部、
前記生成された表示画像を画面に表示する表示部
として機能させ、
前記報告領域は、前記写真領域を含み、
前記調査領域は、前記視野領域に含まれない部分を有する
ように機能させることを特徴とするプログラム。
Computer
A detector that detects the position and orientation of the camera,
An acquisition unit for acquiring a position of a target in an investigation region determined by the detected position and orientation of the camera;
A photographed image obtained by photographing the visual field region defined by the position and orientation of the camera is photographed in a photographic region within a projection plane, and the position of the acquired target is determined by a predetermined projection conversion. A generation unit that generates a display image by drawing a mark representing the target object at a position projected in a report area in the projection plane;
Function as a display unit for displaying the generated display image on a screen;
The reporting area includes the photographic area;
The research area is made to function so as to have a portion not included in the visual field area.
JP2011251147A 2011-11-16 2011-11-16 Display device, display method, and program Active JP5189673B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011251147A JP5189673B1 (en) 2011-11-16 2011-11-16 Display device, display method, and program
PCT/JP2012/071839 WO2013073255A1 (en) 2011-11-16 2012-08-29 Display device, display method, program, and non-transitory recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011251147A JP5189673B1 (en) 2011-11-16 2011-11-16 Display device, display method, and program

Publications (2)

Publication Number Publication Date
JP5189673B1 JP5189673B1 (en) 2013-04-24
JP2013105466A true JP2013105466A (en) 2013-05-30

Family

ID=48429333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011251147A Active JP5189673B1 (en) 2011-11-16 2011-11-16 Display device, display method, and program

Country Status (2)

Country Link
JP (1) JP5189673B1 (en)
WO (1) WO2013073255A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211811A (en) * 2016-05-25 2017-11-30 富士通株式会社 Display control program, display control method and display control device
JP2021007020A (en) * 2015-12-10 2021-01-21 ソニー株式会社 Information processing device, information processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6299234B2 (en) * 2014-01-23 2018-03-28 富士通株式会社 Display control method, information processing apparatus, and display control program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040662A (en) * 2006-08-03 2008-02-21 Nippon Hoso Kyokai <Nhk> Cg composition apparatus and cg composition program
JP2011174805A (en) * 2010-02-24 2011-09-08 Zenrin Datacom Co Ltd Information presenting system and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040662A (en) * 2006-08-03 2008-02-21 Nippon Hoso Kyokai <Nhk> Cg composition apparatus and cg composition program
JP2011174805A (en) * 2010-02-24 2011-09-08 Zenrin Datacom Co Ltd Information presenting system and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021007020A (en) * 2015-12-10 2021-01-21 ソニー株式会社 Information processing device, information processing method, and program
JP7052845B2 (en) 2015-12-10 2022-04-12 ソニーグループ株式会社 Information processing equipment, information processing methods, and programs
JP2017211811A (en) * 2016-05-25 2017-11-30 富士通株式会社 Display control program, display control method and display control device

Also Published As

Publication number Publication date
WO2013073255A1 (en) 2013-05-23
JP5189673B1 (en) 2013-04-24

Similar Documents

Publication Publication Date Title
US10979751B2 (en) Communication management apparatus, method and computer-readable storage medium for generating image data identification information communication
US10721116B2 (en) Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium
CN110544280B (en) AR system and method
US20180191787A1 (en) Communication terminal, communication system, communication method, and display method
US10554883B2 (en) VR system, communication method, and non-transitory computer-readable medium
JP2022179557A (en) Communication terminal, display method, program, and image communication system
CN110427110B (en) Live broadcast method and device and live broadcast server
WO2014091824A1 (en) Display control device, display control method and program
CN110992493A (en) Image processing method, image processing device, electronic equipment and storage medium
JP2021520540A (en) Camera positioning methods and devices, terminals and computer programs
CN111768454A (en) Pose determination method, device, equipment and storage medium
WO2020084951A1 (en) Image processing device and image processing method
CN111897429A (en) Image display method, image display device, computer equipment and storage medium
JP2021052289A (en) Image processing method, program, image processing apparatus, and image processing system
CN110839174A (en) Image processing method and device, computer equipment and storage medium
CN110853128A (en) Virtual object display method and device, computer equipment and storage medium
JP5189673B1 (en) Display device, display method, and program
CN111582993A (en) Method and device for acquiring target object, electronic equipment and storage medium
JP2018033107A (en) Video distribution device and distribution method
JP2018056889A (en) Display terminal, display method, and program
JP2018061243A (en) Communication terminal, display method, and program
JP7151316B2 (en) Communication terminal, image communication system, display method, and program
CN110443841B (en) Method, device and system for measuring ground depth
CN111369684A (en) Target tracking method, device, equipment and storage medium
JP2019139697A (en) Display device, video display system, and video display method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5189673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250