JP2023062575A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2023062575A
JP2023062575A JP2021172627A JP2021172627A JP2023062575A JP 2023062575 A JP2023062575 A JP 2023062575A JP 2021172627 A JP2021172627 A JP 2021172627A JP 2021172627 A JP2021172627 A JP 2021172627A JP 2023062575 A JP2023062575 A JP 2023062575A
Authority
JP
Japan
Prior art keywords
image data
image
image processing
processing device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021172627A
Other languages
Japanese (ja)
Inventor
賢 白神
Satoshi Shiraga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cellid
Cellid Inc
Original Assignee
Cellid
Cellid Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cellid, Cellid Inc filed Critical Cellid
Priority to JP2021172627A priority Critical patent/JP2023062575A/en
Publication of JP2023062575A publication Critical patent/JP2023062575A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

To enable a position of an image processing device to be identified even when a person in a mobile body views an internal space and an external space of the mobile body simultaneously.SOLUTION: An image processing device 1 includes: an image data acquisition unit 161 that acquires captured image data generated by imaging an internal space of a mobile body P and an external space of the mobile body P by the image processing device 1 worn by a person riding the mobile body P; a boundary identification unit 162 that identifies a boundary between internal space image data corresponding to the internal space in the captured image data and external space image data corresponding to the external space in the captured image data; and a position identification unit 163 that, on the basis of positions of a plurality of feature points of a subject contained in the internal space image data, identifies a position of the image processing device 1 in the internal space and, on the basis of positions of a plurality of feature points of a subject contained in the external space image data, identifies a position of the image processing device 1 in the external space.SELECTED DRAWING: Figure 4

Description

本発明は、画像データを処理する画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for processing image data.

従来、電子ゴーグルに設けられたカメラでキャプチャされた画像データに基づいて特定した位置に対応する拡張現実画像を電子ゴーグルのディスプレイに表示する技術が知られている(例えば、特許文献1を参照)。 Conventionally, there is known a technique for displaying an augmented reality image corresponding to a position specified based on image data captured by a camera provided in electronic goggles on a display of electronic goggles (see Patent Document 1, for example). .

特開2019-166405号公報JP 2019-166405 A

特許文献1に記載された電子ゴーグルのような画像処理装置においては、予め画像処理装置に設けられたカメラにより生成された撮像画像データ内の被写体の特徴点のパターンを、予め空間内の位置に関連付けられた特徴点のパターンと比較することにより、画像処理装置の位置を特定することができる。画像処理装置は、一例として、特定した位置に応じた拡張現実画像を表示することができる。 In an image processing apparatus such as the electronic goggles described in Patent Document 1, a pattern of feature points of a subject in imaged image data generated in advance by a camera provided in the image processing apparatus is preliminarily arranged at positions in space. By comparing with the associated pattern of feature points, the image processing device can be located. As an example, the image processing device can display an augmented reality image corresponding to the specified position.

ところが、このような画像処理装置を通して、移動体内の人が移動中の移動体の内部の空間と外部の空間とを同時に見る場合、撮像画像データ内の被写体の特徴点のパターンを外部空間内の位置に予め関連付けられた特徴点のパターンと比較しても、これらのパターンが一致せず、画像処理装置の位置を特定できないという問題があった。 However, when a person in a moving vehicle sees the space inside the moving vehicle and the space outside the moving vehicle at the same time through such an image processing apparatus, the pattern of the feature points of the subject in the imaged image data is converted to the space outside the moving vehicle. Even when compared with patterns of feature points pre-associated with positions, these patterns do not match, and there is a problem that the position of the image processing apparatus cannot be specified.

そこで、本発明はこれらの点に鑑みてなされたものであり、移動体内の人が移動体の内部の空間と外部の空間とを同時に見る場合においても、画像処理装置の位置を特定できるようにすることを目的とする。 Therefore, the present invention has been made in view of these points, and is capable of specifying the position of an image processing apparatus even when a person in a mobile body sees the space inside and outside the mobile body at the same time. intended to

本発明の第1の態様の画像処理装置は、人が装着可能な画像処理装置であって、移動体に乗っている人が装着している前記画像処理装置が前記移動体の内部空間と前記移動体の外部空間とを撮影することにより生成された撮像画像データを取得する画像データ取得部と、前記撮像画像データにおける前記内部空間に対応する内部空間画像データと、前記撮像画像データにおける前記外部空間に対応する外部空間画像データとの境界を特定する境界特定部と、前記内部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記内部空間における前記画像処理装置の位置を特定し、前記外部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記外部空間における前記画像処理装置の位置を特定する位置特定部と、を有する。 An image processing apparatus according to a first aspect of the present invention is an image processing apparatus that can be worn by a person, wherein the image processing apparatus worn by a person riding a moving body is configured to be an internal space of the moving body and the an image data acquisition unit that acquires imaged image data generated by photographing an external space of a moving object; internal space image data corresponding to the internal space in the imaged image data; and the exterior in the imaged image data. a boundary identifying unit that identifies a boundary with external space image data corresponding to the space; a position identifying unit that identifies and identifies the position of the image processing device in the external space based on the positions of the plurality of feature points of the subject included in the external space image data.

前記位置特定部は、最新の前記内部空間画像データに含まれる前記複数の特徴点の位置と、直前の前記内部空間画像データに含まれる前記複数の特徴点の位置との関係に基づいて、前記内部空間における前記画像処理装置の位置を特定し、最新の前記外部空間画像データに含まれる前記複数の特徴点の位置と、直前の前記外部空間画像データに含まれる前記複数の特徴点の位置との関係に基づいて、前記外部空間における前記画像処理装置の位置を特定してもよい。 The position specifying unit, based on the relationship between the positions of the plurality of feature points included in the latest internal space image data and the positions of the plurality of feature points included in the previous internal space image data, The positions of the image processing device in the internal space are specified, and the positions of the plurality of feature points included in the latest external space image data and the positions of the plurality of feature points included in the immediately previous external space image data are determined. The position of the image processing device in the external space may be identified based on the relationship of .

前記位置特定部は、前記外部空間における前記画像処理装置の位置を特定する処理を実行する周期よりも遅い周期で、前記内部空間における前記画像処理装置の位置を特定してもよい。 The position specifying unit may specify the position of the image processing device in the internal space at a cycle that is slower than a cycle of performing processing for specifying the position of the image processing device in the external space.

前記画像処理装置は、前記位置特定部が特定した前記内部空間における前記画像処理装置の位置に対応する内部拡張現実画像を前記画像処理装置が有する表示部に表示させる内部画像表示処理部と、前記位置特定部が特定した前記外部空間における前記画像処理装置の位置に対応する外部拡張現実画像を前記表示部に表示させる外部画像表示処理部と、をさらに有してもよい。 The image processing device includes an internal image display processing unit that causes a display unit of the image processing device to display an internal augmented reality image corresponding to the position of the image processing device in the internal space specified by the position specifying unit; It may further include an external image display processing unit that causes the display unit to display an external augmented reality image corresponding to the position of the image processing device in the external space specified by the position specifying unit.

前記内部画像表示処理部は、前記表示部における、前記撮像画像データにおける前記内部空間内の所定の被写体を基準とする位置に前記内部拡張現実画像を表示させてもよい。 The internal image display processing unit may cause the display unit to display the internal augmented reality image at a position based on a predetermined subject in the internal space in the captured image data.

前記内部画像表示処理部は、前記撮像画像データにおける一以上の被写体の特徴を示す複数の特徴点のパターンに基づいて決定した大きさの前記内部拡張現実画像を前記表示部に表示させてもよい。 The internal image display processing unit may cause the display unit to display the internal augmented reality image having a size determined based on a pattern of a plurality of feature points representing characteristics of one or more subjects in the captured image data. .

前記外部画像表示処理部は、前記表示部における、前記外部空間における前記画像処理装置の位置に関連付けて予め記憶部に記憶された位置に前記外部拡張現実画像を表示させてもよい。 The external image display processing unit may cause the display unit to display the external augmented reality image at a position stored in advance in a storage unit in association with the position of the image processing device in the external space.

前記画像データ取得部は、所定の時間間隔ごとに前記撮像画像データを取得し、前記境界特定部は、異なる時刻に取得された複数の前記撮像画像データにおける含まれる複数の被写体それぞれの位置の変化速度に基づいて前記境界を特定してもよい。 The image data acquiring unit acquires the captured image data at predetermined time intervals, and the boundary specifying unit changes the position of each of the plurality of subjects included in the plurality of captured image data acquired at different times. The boundary may be identified based on velocity.

本発明の第2の態様の画像処理方法は、プロセッサが実行する、移動体に乗っている人が装着している画像処理装置が前記移動体の内部空間と前記移動体の外部空間とを撮影することにより生成された撮像画像データを取得するステップと、前記撮像画像データにおける前記内部空間に対応する内部空間画像データと、前記撮像画像データにおける前記外部空間に対応する外部空間画像データとを特定するステップと、前記内部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記内部空間における前記画像処理装置の位置を特定するステップと、前記外部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記外部空間における前記画像処理装置の位置を特定するステップと、を有する。 According to a second aspect of the present invention, there is provided an image processing method executed by a processor, wherein an image processing device worn by a person riding a moving object captures an interior space of the moving object and an external space of the moving object. obtaining imaged image data generated by: specifying internal space image data corresponding to the internal space in the imaged image data and external space image data corresponding to the external space in the imaged image data; identifying the position of the image processing device in the internal space based on the positions of a plurality of feature points of the object contained in the internal space image data; and determining the position of the object contained in the external space image data. and identifying the position of the image processing device in the external space based on the positions of a plurality of feature points.

本発明の第3の態様のプログラムは、プロセッサに、移動体に乗っている人が装着している画像処理装置が前記移動体の内部空間と前記移動体の外部空間とを撮影することにより生成された撮像画像データを取得するステップと、前記撮像画像データにおける前記内部空間に対応する内部空間画像データと、前記撮像画像データにおける前記外部空間に対応する外部空間画像データとを特定するステップと、前記内部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記内部空間における前記画像処理装置の位置を特定するステップと、前記外部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記外部空間における前記画像処理装置の位置を特定するステップと、を実行させる。 A program according to a third aspect of the present invention is stored in a processor and generated by an image processing device worn by a person riding a moving body, which captures an interior space of the moving body and an outer space of the moving body. a step of acquiring captured image data, identifying internal space image data corresponding to the internal space in the captured image data, and external space image data corresponding to the external space in the captured image data; identifying a position of the image processing device in the internal space based on positions of a plurality of feature points of the subject included in the internal space image data; and a step of specifying a plurality of feature points of the subject included in the external space image data. and determining the position of the image processing device in the external space based on the position of the .

本発明によれば、移動体内の人が移動体の内部の空間と外部の空間とを同時に見る場合においても、画像処理装置の位置を特定できるという効果を奏する。 According to the present invention, there is an effect that the position of the image processing device can be identified even when a person in the moving body sees the space inside the moving body and the space outside the moving body at the same time.

画像処理装置の概要を説明するための図である。1 is a diagram for explaining an overview of an image processing device; FIG. ユーザが画像処理装置を装着した状態で見る画像の一例を模式的に示す図である。FIG. 4 is a diagram schematically showing an example of an image viewed by a user wearing the image processing device; 画像処理装置のハードウェア構成を示す図である。2 is a diagram showing the hardware configuration of an image processing apparatus; FIG. 画像処理装置の機能構成を示す図である。2 is a diagram showing a functional configuration of an image processing device; FIG. 境界特定部が作成する点群データの一例である。It is an example of point cloud data created by the boundary specifying unit. 画像処理装置における処理の流れを示すフローチャートである。4 is a flow chart showing the flow of processing in the image processing apparatus;

[画像処理装置1の概要]
図1は、画像処理装置1の概要を説明するための図である。画像処理装置1は、移動体Pに乗っているユーザU(例えば操縦者)が装着可能な端末であり、例えば眼鏡又はゴーグルの形状をしている。移動体Pは、人が乗った状態で移動可能な任意の物体であり、例えば飛行機、船舶、鉄道又は車両である。図1は、飛行機のコックピットにおいてユーザUが操縦桿Hを使って操縦している様子を模式的に示している。
[Overview of Image Processing Apparatus 1]
FIG. 1 is a diagram for explaining an outline of an image processing apparatus 1. As shown in FIG. The image processing device 1 is a terminal that can be worn by a user U (for example, an operator) riding a mobile object P, and has the shape of glasses or goggles, for example. The mobile object P is any object that can be moved with a person on it, such as an airplane, a ship, a railroad, or a vehicle. FIG. 1 schematically shows a state in which a user U is using a control stick H to operate an airplane cockpit.

ユーザUは、画像処理装置1のレンズを介して、コックピットの内部の空間(以下、「内部空間」という。)と、窓Wの外部の空間(以下、「外部空間」という。)とを見ることができる。ユーザUは、例えば内部空間における操縦桿H、メータM1、M2等の物体を見るとともに、外部空間における滑走路を見ることができる。また、ユーザUは、内部空間及び外部空間を見ている状態で、画像処理装置1がレンズに表示する拡張現実画像(以下、「AR画像」という。)を見ることもできる。 The user U sees the space inside the cockpit (hereinafter referred to as "internal space") and the space outside the window W (hereinafter referred to as "external space") through the lens of the image processing device 1. be able to. For example, the user U can see objects such as the control stick H and the meters M1 and M2 in the interior space, and can see the runway in the exterior space. The user U can also see an augmented reality image (hereinafter referred to as an “AR image”) displayed on the lens by the image processing device 1 while looking at the internal space and the external space.

図2は、ユーザUが画像処理装置1を装着した状態で見る画像の一例を模式的に示す図である。図2における領域R1は外部空間の滑走路を示しており、領域R2は内部空間のコックピットを示している。図2(a)は、ユーザUが垂直方向に座っている状態で見た内部空間及び外部空間に重ねて表示されたAR画像を示しており、図2(b)は、ユーザUが垂直方向に対して傾いた状態で見た内部空間及び外部空間に重ねて表示されたAR画像を示している。 FIG. 2 is a diagram schematically showing an example of an image viewed by the user U wearing the image processing device 1. As shown in FIG. Region R1 in FIG. 2 indicates the runway of the exterior space, and region R2 indicates the cockpit of the interior space. FIG. 2(a) shows an AR image superimposed on the internal space and the external space viewed when the user U is sitting vertically, and FIG. 4 shows an AR image superimposed on the interior space and the exterior space viewed obliquely with respect to .

図2(a)に示す画像には内部AR画像G1及び外部AR画像G2が表示されている。内部AR画像G1は飛行機の速度を示しており、操縦桿Hの上方に表示されている。外部AR画像G2は飛行機が進むべき位置を示しており、滑走路の所定の位置に表示されている。 An internal AR image G1 and an external AR image G2 are displayed in the image shown in FIG. 2(a). The internal AR image G1 shows the speed of the airplane and is displayed above the control stick H. The external AR image G2 shows the position to which the airplane should proceed, and is displayed at a predetermined position on the runway.

図2(b)に示す画像にも同様に、内部AR画像G1’及び外部AR画像G2’が表示されている。内部AR画像G1と内部AR画像G1’とは、操縦桿Hの上方の位置に向きが同じ状態で表示されている。これに対して、外部AR画像G2と外部AR画像G2’とは向きが異なる状態で表示されている。具体的には、図2(a)においては操縦者が傾いていないことにより滑走路が上下方向に見えており、外部AR画像G2は上下方向と左右方向の直線により構成されている。これに対して、図2(b)においては操縦者が傾いていることにより滑走路が斜め方向に見えており、外部AR画像G2’は斜め方向の複数の直線により構成されている。 An internal AR image G1' and an external AR image G2' are similarly displayed in the image shown in FIG. 2(b). The internal AR image G1 and the internal AR image G1' are displayed above the control stick H with the same orientation. On the other hand, the external AR image G2 and the external AR image G2' are displayed in different orientations. Specifically, in FIG. 2A, the runway is visible in the vertical direction because the pilot is not tilted, and the external AR image G2 is composed of straight lines in the vertical and horizontal directions. On the other hand, in FIG. 2(b), the runway appears obliquely because the pilot is tilted, and the external AR image G2' is composed of a plurality of oblique straight lines.

画像処理装置1は、内部空間に関連する情報を含むAR画像を、内部空間における画像処理装置1の位置に基づいて決定した位置に表示し、外部空間に関連する情報を含むAR画像を、外部空間における画像処理装置1の位置に基づいて決定した位置に表示する。画像処理装置1は、内部空間に対応するAR画像と外部空間に対応するAR画像のそれぞれを適切な位置に表示するために、画像処理装置1が撮影して生成した撮像画像データに基づいて、内部空間における画像処理装置1の位置と、外部空間における画像処理装置1の位置とを特定する。 The image processing device 1 displays an AR image containing information related to the internal space at a position determined based on the position of the image processing device 1 in the internal space, and displays the AR image containing information related to the external space to the outside. It is displayed at a position determined based on the position of the image processing device 1 in space. In order to display the AR image corresponding to the internal space and the AR image corresponding to the external space at appropriate positions, the image processing device 1 performs the following operations based on captured image data captured and generated by the image processing device 1. The position of the image processing device 1 in the internal space and the position of the image processing device 1 in the external space are specified.

具体的には、画像処理装置1は、撮像画像データにおける内部空間に対応する内部空間画像データに基づいて、内部空間における画像処理装置1の位置を特定し、撮像画像データにおける外部空間に対応する外部空間画像データに基づいて、外部空間における画像処理装置1の位置を特定する。このように、画像処理装置1は、移動体P内の人が移動中の移動体Pの内部の空間と外部の空間とを同時に見る場合においても画像処理装置1の位置を特定でき、特定した位置に基づいて、内部空間の状態に適したAR画像と外部空間の状態に適したAR画像とを表示することができる。 Specifically, the image processing device 1 identifies the position of the image processing device 1 in the internal space based on the internal space image data corresponding to the internal space in the captured image data, and identifies the position of the image processing device 1 in the captured image data corresponding to the external space. The position of the image processing device 1 in the external space is specified based on the external space image data. In this manner, the image processing device 1 can identify the position of the image processing device 1 even when a person in the moving body P simultaneously sees the space inside and outside the moving body P during movement. Based on the position, it is possible to display an AR image suitable for the state of the internal space and an AR image suitable for the state of the external space.

[画像処理装置1の構成]
図3は、画像処理装置1のハードウェア構成を示す図である。図4は、画像処理装置1の機能構成を示す図である。
[Configuration of image processing apparatus 1]
FIG. 3 is a diagram showing the hardware configuration of the image processing apparatus 1. As shown in FIG. FIG. 4 is a diagram showing the functional configuration of the image processing apparatus 1. As shown in FIG.

図3に示すように、画像処理装置1は、撮像部11と、右側レンズ121と、左側レンズ122と、右側投影部123と、左側投影部124と、を有する。右側レンズ121、左側レンズ122、右側投影部123及び左側投影部124は、図4に示す表示部12を構成する。表示部12は、ユーザUが内部空間及び外部空間内の被写体を見ている状態でAR画像をユーザが視認できるように表示する。表示部12においては、右側投影部123が右側レンズ121に向けて投影画像L1と投影し、左側投影部124が左側レンズ122に向けて投影画像L2を投影することにより、AR画像を右側レンズ121及び左側レンズ122に表示する。 As shown in FIG. 3 , the image processing device 1 has an imaging section 11 , a right lens 121 , a left lens 122 , a right projection section 123 and a left projection section 124 . The right lens 121, the left lens 122, the right projection section 123, and the left projection section 124 constitute the display section 12 shown in FIG. The display unit 12 displays the AR image so that the user can visually recognize it while the user U is looking at the subject in the internal space and the external space. In the display unit 12, the right projection unit 123 projects the projection image L1 onto the right lens 121, and the left projection unit 124 projects the projection image L2 onto the left lens 122, whereby the AR image is projected onto the right lens 121. and displayed on the left lens 122 .

撮像部11は、被写体を撮影することにより撮像画像データを作成する撮像素子を有する。図3に示す例においては、撮像部11が画像処理装置1の中央付近に設けられているが、撮像部11が設けられている位置は、ユーザUが見る領域に対応する撮像画像データを作成することができる限りにおいて任意である。撮像部11は左右方向の異なる位置に設けられた複数の撮像素子を有しており、奥行方向のデータを生成できるステレオカメラとして機能してもよい。 The imaging unit 11 has an imaging device that creates captured image data by photographing a subject. In the example shown in FIG. 3, the image pickup unit 11 is provided near the center of the image processing apparatus 1, but the position where the image pickup unit 11 is provided is used to create captured image data corresponding to the area viewed by the user U. Optional to the extent possible. The imaging unit 11 has a plurality of imaging elements provided at different positions in the horizontal direction, and may function as a stereo camera capable of generating data in the depth direction.

右側レンズ121は、ユーザUの右目に対応しており、ユーザUが画像処理装置1を装着した状態でユーザUの右目の前方に位置する。右側レンズ121は光透過性を有しており、ユーザUは、右側レンズ121を介して周辺の被写体を見ることができる。また、右側レンズ121は、右側投影部123が投影したAR画像をユーザUが見ることができる態様で表示する。右側レンズ121は、例えば右側投影部123が右側レンズ121の一部の領域に投影した光を伝搬した後にユーザUの右目に向けて屈折させる導光板を有している。 The right lens 121 corresponds to the user U's right eye, and is positioned in front of the user U's right eye when the user U wears the image processing apparatus 1 . The right lens 121 has optical transparency, and the user U can see surrounding subjects through the right lens 121 . Also, the right lens 121 displays the AR image projected by the right projection unit 123 in such a manner that the user U can see it. The right lens 121 has, for example, a light guide plate that propagates light projected onto a partial area of the right lens 121 by the right projection unit 123 and then refracts the light toward the user's U right eye.

左側レンズ122は、右側レンズ121と同等の構成を有する。左側レンズ122は、ユーザUの左目に対応しており、ユーザUが画像処理装置1を装着した状態でユーザUの左目の前方に位置する。左側レンズ122は光透過性を有しており、ユーザUは、左側レンズ122を介して周辺の被写体を見ることができる。また、左側レンズ122は、左側投影部124が投影したAR画像をユーザUが見ることができる態様で表示する。左側レンズ122は、例えば左側投影部124が左側レンズ122の一部の領域に投影した光を伝搬した後にユーザUの右目に向けて屈折させる導光板を有している。 The left lens 122 has the same configuration as the right lens 121 . The left lens 122 corresponds to the user U's left eye, and is positioned in front of the user U's left eye when the user U wears the image processing apparatus 1 . The left lens 122 has optical transparency, and the user U can see surrounding subjects through the left lens 122 . Also, the left lens 122 displays the AR image projected by the left projection unit 124 in such a manner that the user U can see it. The left lens 122 has, for example, a light guide plate that propagates light projected onto a partial area of the left lens 122 by the left projection unit 124 and then refracts the light toward the user's U right eye.

右側投影部123は、AR画像を右側レンズ121に投影する。右側投影部123は、表示処理部166から入力された右目用のAR画像を右側レンズ121に投影する。右側投影部123及び左側投影部124は、ユーザが右側レンズ121及び左側レンズ122を介して被写体を視認している間に、右側レンズ121及び左側レンズ122にAR画像を投影する。 The right projection unit 123 projects the AR image onto the right lens 121 . The right projection unit 123 projects the AR image for the right eye input from the display processing unit 166 onto the right lens 121 . The right projection unit 123 and the left projection unit 124 project AR images onto the right lens 121 and the left lens 122 while the user views the subject through the right lens 121 and the left lens 122 .

左側投影部124は、AR画像を左側レンズ122に投影する。左側投影部124は、表示処理部166から入力された左目用のAR画像を左側レンズ122に投影する。 The left projection unit 124 projects the AR image onto the left lens 122 . The left projection unit 124 projects the AR image for the left eye input from the display processing unit 166 onto the left lens 122 .

続いて、図4を参照しながら画像処理装置1の内部構成及び機能について説明する。図4に示すように、画像処理装置1は、撮像部11及び表示部12に加えて、操作部13と、通信部14と、記憶部15と、制御部16と、を有する。制御部16は、画像データ取得部161と、境界特定部162と、位置特定部163と、内部画像表示処理部164と、外部画像表示処理部165と、表示処理部166と、を有する。 Next, the internal configuration and functions of the image processing apparatus 1 will be described with reference to FIG. As shown in FIG. 4 , the image processing apparatus 1 has an operation section 13 , a communication section 14 , a storage section 15 and a control section 16 in addition to the imaging section 11 and the display section 12 . The control unit 16 has an image data acquisition unit 161 , a boundary identification unit 162 , a position identification unit 163 , an internal image display processing unit 164 , an external image display processing unit 165 and a display processing unit 166 .

操作部13は、ユーザUによる画像処理装置1の操作を受けるためのデバイスである。操作部13は、例えばタッチスイッチ又はプッシュスイッチであってもよく、スマートフォン又はタブレット等の外部端末から操作データを受信する近距離無線通信デバイスであってもよい。操作データは、例えば、AR画像の表示を開始したり停止したりする操作内容を示すデータ、移動体Pの機種名を示すデータ、又は移動体Pが移動する場所を示すデータ(空港の名称、港の名称、鉄道路線の名称又は道路の名称を示すデータ)である。操作部13は、ユーザUの操作内容を示す操作データを制御部16に通知する。 The operation unit 13 is a device for receiving an operation of the image processing apparatus 1 by the user U. FIG. The operation unit 13 may be, for example, a touch switch or a push switch, or may be a short-range wireless communication device that receives operation data from an external terminal such as a smartphone or tablet. The operation data is, for example, data indicating the details of the operation for starting or stopping the display of the AR image, data indicating the model name of the mobile object P, or data indicating the location to which the mobile object P moves (name of airport, data indicating the name of a port, the name of a railway line, or the name of a road). The operation unit 13 notifies the control unit 16 of operation data indicating the content of the user U's operation.

通信部14は、制御部16の処理に使用されるデータを提供する外部サーバとの間でデータを送受信するための通信インターフェースを有する。通信部14は、例えば無線通信回線を用いて通信するための無線通信コントローラを有する。通信部14は、例えば、ユーザUが乗っている移動体Pが移動する付近の空間にある各種の物体の特徴点を示す基準点群データ、及び表示部12に表示されるAR画像データを外部サーバから取得し、取得した基準点群データ及びAR画像データを記憶部15に記憶させる。 The communication unit 14 has a communication interface for transmitting and receiving data to and from an external server that provides data used for processing by the control unit 16 . The communication unit 14 has, for example, a wireless communication controller for communicating using a wireless communication line. For example, the communication unit 14 transmits reference point cloud data indicating characteristic points of various objects in a space near the moving object P on which the user U is riding, and AR image data displayed on the display unit 12 to an external device. Acquired from the server and stored in the storage unit 15 the acquired reference point cloud data and AR image data.

通信部14は、内部空間の複数の位置において撮影された画像に含まれる被写体の特徴点により構成される複数の内部基準点群データを取得する。また、通信部14は、外部空間の複数の位置において撮影された画像に含まれる被写体の特徴点により構成される複数の外部基準点群データを取得する。 The communication unit 14 acquires a plurality of internal reference point cloud data composed of feature points of a subject included in images captured at a plurality of positions in the internal space. In addition, the communication unit 14 acquires a plurality of external reference point cloud data composed of feature points of the subject included in images captured at a plurality of positions in the external space.

AR画像データは、一以上の内部基準点群データ又は外部基準点群データに関連付けられている。画像処理装置1は、撮像画像データにおける内部空間に対応する領域に含まれる被写体の特徴点に基づく点群データがいずれかの内部基準点群データと一致しており、当該内部基準点群データにAR画像データが関連付けられている場合に、当該AR画像データに基づくAR画像を表示する。同様に、画像処理装置1は、撮像画像データにおける外部空間に対応する領域に含まれる被写体の特徴点に基づく点群データがいずれかの外部基準点群データと一致しており、当該外部基準点群データにAR画像データが関連付けられている場合に、当該AR画像データに基づくAR画像を表示する。 AR image data is associated with one or more internal reference point cloud data or external reference point cloud data. The image processing apparatus 1 determines that the point cloud data based on the feature points of the subject included in the area corresponding to the internal space in the captured image data matches any internal reference point cloud data, and the internal reference point cloud data When AR image data is associated, an AR image based on the AR image data is displayed. Similarly, the image processing apparatus 1 detects that the point cloud data based on the feature points of the subject included in the area corresponding to the external space in the captured image data matches any of the external reference point cloud data, and the external reference point When AR image data is associated with group data, an AR image based on the AR image data is displayed.

内部基準点群データ、及び当該内部基準点群データに対応する内部AR画像データは、移動体Pの機種名に関連付けられていてもよい。また、外部基準点群データ、及び当該外部基準点群データに対応する外部AR画像データは、緯度・経度・高度を示す位置情報、又はエリアを示す情報に関連付けられていてもよい。一例として、外部基準点群データ及び外部AR画像データは、空港の名称、港の名称、鉄道路線の名称又は道路の名称に関連付けられていてもよい。 The internal reference point cloud data and the internal AR image data corresponding to the internal reference point cloud data may be associated with the model name of the moving object P. Also, the external reference point cloud data and the external AR image data corresponding to the external reference point cloud data may be associated with position information indicating latitude/longitude/altitude or information indicating an area. As an example, the external reference point cloud data and the external AR image data may be associated with airport names, port names, railway line names, or road names.

なお、画像処理装置1は外部サーバから各種のデータを取得せず、予め記憶部15に記憶された基準点群データ及びAR画像データを用いてもよい。この場合、画像処理装置1が通信部14を有していなくてもよい。 Note that the image processing apparatus 1 may use reference point cloud data and AR image data stored in advance in the storage unit 15 without acquiring various data from an external server. In this case, the image processing device 1 may not have the communication section 14 .

記憶部15は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の記憶媒体を有する。記憶部15は、制御部16が実行するプログラムを記憶する。また、記憶部15は、通信部14が外部サーバから受信した基準点群データとAR画像データとを関連付けて記憶する。記憶部15は、位置情報又はエリアを示す情報に関連付けて複数の基準点群データ及びAR画像データを記憶してもよい。 The storage unit 15 has storage media such as ROM (Read Only Memory) and RAM (Random Access Memory). The storage unit 15 stores programs executed by the control unit 16 . In addition, the storage unit 15 associates and stores the reference point cloud data and the AR image data that the communication unit 14 has received from the external server. The storage unit 15 may store a plurality of reference point cloud data and AR image data in association with position information or information indicating an area.

記憶部15は、基準点群データとして、内部空間の複数の位置において撮影された画像に含まれる被写体の特徴点により構成される複数の内部基準点群データを記憶する。記憶部15は、内部空間における位置及び向きに関連付けて内部基準点群データを記憶してもよい。内部空間における位置は、内部空間の基準位置に対する距離及び向きにより示される。内部空間における向きは、内部空間の基準向き(例えば前方)に対する向きにより示される。 The storage unit 15 stores, as reference point cloud data, a plurality of internal reference point cloud data including feature points of a subject included in images captured at a plurality of positions in the internal space. The storage unit 15 may store the internal reference point cloud data in association with the position and orientation in the internal space. A position in the internal space is indicated by a distance and orientation relative to a reference position in the internal space. The orientation in the interior space is indicated by the orientation relative to the reference orientation (eg forward) of the interior space.

記憶部15は、基準点群データとして、外部空間の複数の位置において撮影された画像に含まれる被写体の特徴点により構成される複数の外部基準点群データを記憶する。記憶部15は、外部空間における位置及び向きに関連付けて外部基準点群データを記憶してもよい。外部空間における位置は、基準位置に対する位置(座標)により示される。基準位置は、例えば、画像処理装置1が存在する空港、港、鉄道路線又は道路のいずれかの位置である。基準位置は、緯度及び経度が0度の位置を基準位置とする緯度・経度と、海面の位置に対する高度とにより表されていてもよい。外部空間における向きは、外部空間の基準向き(例えば北向き)に対する向きにより示される。 The storage unit 15 stores, as reference point cloud data, a plurality of external reference point cloud data including feature points of a subject included in images captured at a plurality of positions in the external space. The storage unit 15 may store the external reference point cloud data in association with the position and orientation in the external space. A position in external space is indicated by a position (coordinates) relative to a reference position. The reference position is, for example, any position of an airport, a port, a railway line, or a road where the image processing apparatus 1 is located. The reference position may be represented by latitude and longitude with a position of 0 degrees latitude and longitude as the reference position, and altitude relative to the position of the sea surface. Orientation in exterior space is indicated by orientation relative to a reference orientation of exterior space (eg, north).

さらに、記憶部15は、複数の内部基準点群データそれぞれに関連付けて内部AR画像データを記憶する。記憶部15は、例えば、複数の内部基準点群データそれぞれに関連付けて異なる内容を示す内部AR画像データを記憶したり、複数の内部基準点群データそれぞれに関連付けて同じ内容で大きさが異なる内部AR画像データを記憶したりする。さらに、記憶部15は、移動体Pの状態(例えば速度、高度、発生した問題の種別)に関連付けて内部AR画像データを記憶してもよい。 Furthermore, the storage unit 15 stores the internal AR image data in association with each of the plurality of internal reference point cloud data. The storage unit 15 stores, for example, internal AR image data indicating different contents in association with each of the plurality of internal reference point cloud data, or stores internal AR image data with the same content but different sizes in association with each of the plurality of internal reference point cloud data. Store AR image data. Furthermore, the storage unit 15 may store the internal AR image data in association with the state of the mobile object P (for example, speed, altitude, type of problem that has occurred).

また、記憶部15は、複数の外部基準点群データそれぞれに関連付けて外部AR画像データを記憶する。記憶部15は、例えば、複数の外部基準点群データそれぞれに関連付けて異なる内容を示す外部AR画像データを記憶したり、複数の外部基準点群データそれぞれに関連付けて同じ内容で大きさが異なる外部AR画像データを記憶したりする。記憶部15は、外部空間における位置及び向きに関連付けて外部AR画像データを記憶してもよい。 The storage unit 15 also stores external AR image data in association with each of the plurality of external reference point cloud data. The storage unit 15 stores, for example, external AR image data showing different contents in association with each of a plurality of external reference point cloud data, or external AR image data with the same contents but different sizes in association with each of a plurality of external reference point cloud data. Store AR image data. The storage unit 15 may store the external AR image data in association with the position and orientation in the external space.

記憶部15は、空港の名称、港の名称、鉄道路線の名称又は道路の名称に関連付けて外部基準点群データを記憶してもよい。記憶部15は、例えば、A空港内の多数の地点において複数の向きでの撮影により生成された撮像画像データに基づいて作成された多数の外部基準点群データを、A空港用の外部基準点群データとして記憶する。 The storage unit 15 may store the external reference point cloud data in association with the name of the airport, the name of the port, the name of the railway line, or the name of the road. The storage unit 15 stores, for example, a large number of external reference point cloud data created based on captured image data generated by photographing in a plurality of directions at a large number of points in Airport A as external reference points for Airport A. Store as group data.

また、記憶部15は、移動体Pを識別するための移動体識別情報(例えば機種名)に関連付けて内部基準点群データを記憶してもよい。記憶部15は、例えば機種Bのコックピット内の複数の位置において複数の向きでの撮影により生成された撮像画像データに基づいて作成された多数の内部基準点群データを、機種B用の内部基準点群データとして記憶する。 Further, the storage unit 15 may store the internal reference point cloud data in association with mobile body identification information (for example, model name) for identifying the mobile body P. The storage unit 15 stores, for example, a large number of internal reference point cloud data created based on captured image data generated by photographing in a plurality of directions at a plurality of positions in the cockpit of the model B as an internal reference for the model B. Store as point cloud data.

制御部16は、記憶部15に記憶されたプログラムを実行することにより各種のデータを処理するプロセッサとしてCPU(Central Processing Unit)を有している。制御部16は、記憶部15に記憶されたプログラムを実行することにより、画像データ取得部161、境界特定部162、位置特定部163、内部画像表示処理部164、外部画像表示処理部165及び表示処理部166として機能する。 The control unit 16 has a CPU (Central Processing Unit) as a processor that processes various data by executing programs stored in the storage unit 15 . By executing the programs stored in the storage unit 15, the control unit 16 controls an image data acquisition unit 161, a boundary identification unit 162, a position identification unit 163, an internal image display processing unit 164, an external image display processing unit 165, and a display. It functions as the processing unit 166 .

画像データ取得部161は、移動体Pに乗っているユーザUが装着している画像処理装置1が移動体Pの内部空間と移動体Pの外部空間とを撮影することにより生成された撮像画像データを取得する。すなわち、画像データ取得部161は、ユーザUが画像処理装置1を装着している状態で撮像部11が生成した撮像画像データを取得する。画像データ取得部161は、所定の時間間隔ごとに撮像画像データを取得する。所定の時間間隔は任意であるが、例えば33.3ミリ秒(フレームレート30fpsに対応)である。画像データ取得部161は、取得した撮像画像データを境界特定部162及び表示処理部166に入力する。 The image data acquisition unit 161 obtains a captured image generated by photographing the internal space of the mobile object P and the external space of the mobile object P by the image processing device 1 worn by the user U riding the mobile object P. Get data. That is, the image data acquisition unit 161 acquires captured image data generated by the imaging unit 11 while the user U is wearing the image processing device 1 . The image data acquisition unit 161 acquires captured image data at predetermined time intervals. Although the predetermined time interval is arbitrary, it is, for example, 33.3 milliseconds (corresponding to a frame rate of 30 fps). The image data acquisition unit 161 inputs the acquired captured image data to the boundary identification unit 162 and the display processing unit 166 .

境界特定部162は、画像データ取得部161から入力された撮像画像データにおける内部空間に対応する領域と外部空間に対応する領域との境界を特定する。境界特定部162は、撮像画像データにおける境界の位置に基づいて、撮像画像データにおける内部空間に対応する内部空間画像データと、撮像画像データにおける外部空間に対応する外部空間画像データとを作成する。当該境界は、図2に示した例における一点鎖線で示した位置である。 The boundary identification unit 162 identifies the boundary between the area corresponding to the internal space and the area corresponding to the external space in the captured image data input from the image data acquisition unit 161 . The boundary specifying unit 162 creates internal space image data corresponding to the internal space in the captured image data and external space image data corresponding to the external space in the captured image data, based on the position of the boundary in the captured image data. The boundary is the position indicated by the dashed line in the example shown in FIG.

境界特定部162が境界を特定する方法は任意であるが、例えば、機械学習(例えば深層学習)によって境界を特定してもよく、特徴点の変化速度の差によって境界を特定してもよく、特徴点までの距離の差によって境界を特定してもよい。 The boundary identification unit 162 may identify the boundary by any method. Boundaries may be identified by differences in distance to feature points.

境界特定部162は、機械学習を用いて境界を特定する場合、例えば、境界位置を示すデータを含む撮像画像データを教師データとして学習し、撮像画像データが入力されると境界位置を示す境界位置データを出力する機械学習モデルに、画像データ取得部161が取得した撮像画像データを入力する。境界特定部162は、機械学習モデルから出力される境界位置データに基づいて、撮像画像データにおける境界を特定する。 When identifying a boundary using machine learning, the boundary identifying unit 162 learns, for example, captured image data including data indicating the boundary position as teacher data, and when captured image data is input, the boundary position indicating the boundary position is learned. The captured image data acquired by the image data acquisition unit 161 is input to the machine learning model that outputs data. The boundary identification unit 162 identifies boundaries in the captured image data based on boundary position data output from the machine learning model.

境界特定部162は、特徴点の変化速度の差によって境界を特定する場合、例えば、異なる時刻に取得された複数の撮像画像データにおける含まれる複数の被写体それぞれの位置の変化速度に基づいて境界を特定する。具体的には、境界特定部162は、第1時刻に生成された撮像画像データに含まれている複数の被写体の特徴点から構成される第1点群データと、第1時刻の次の第2時刻に生成された撮像画像データに含まれている複数の被写体の特徴点から構成される第2点群データとを作成する。特徴点は、被写体の輪郭線上の位置、凹凸の境界線上の位置、又は異なる色の領域の境界線上の位置の点である。 When the boundary identifying unit 162 identifies the boundary based on the difference in change speed of the feature points, for example, the boundary is identified based on the position change speed of each of the plurality of subjects included in the plurality of captured image data acquired at different times. Identify. Specifically, the boundary identifying unit 162 generates first point cloud data including feature points of a plurality of subjects included in the captured image data generated at the first time, Second point cloud data composed of a plurality of subject feature points included in the captured image data generated at time 2 is created. A feature point is a point on a contour line of a subject, a position on a boundary line of unevenness, or a position on a boundary line between regions of different colors.

境界特定部162は、第1点群データに含まれる複数の特徴点と、第2点群データにおけるこれらに対応する複数の特徴点との位置の差を特定する。この差が大きければ大きいほど特徴点の変化速度が大きい。そこで、境界特定部162は、変化速度の大きさによって複数の特徴点を2つのグループに分類し、変化速度が比較的小さい特徴点が含まれている領域が内部空間であり、変化速度が比較的大きい特徴点が含まれている領域が外部空間であることを特定する。 The boundary specifying unit 162 specifies the difference in position between the plurality of feature points included in the first point cloud data and the plurality of corresponding feature points in the second point cloud data. The larger this difference is, the faster the change speed of the feature point is. Therefore, the boundary identifying unit 162 classifies the plurality of feature points into two groups according to the magnitude of change speed, and the area containing the feature points with relatively low change speed is the internal space. Specify that the region containing the feature points with the largest target is the external space.

図5は、境界特定部162が作成する点群データの一例である。図5に示す点群データは、図2に示した画像に対応している。図5においては、内部空間に対応する特徴点を白い四角形で示しており、外部空間に対応する特徴点を黒い丸で示している。 FIG. 5 is an example of point cloud data created by the boundary specifying unit 162. As shown in FIG. The point cloud data shown in FIG. 5 correspond to the image shown in FIG. In FIG. 5, the feature points corresponding to the internal space are indicated by white squares, and the feature points corresponding to the external space are indicated by black circles.

白い四角形で示す内部空間の特徴点は、黒い丸で示す外部空間の特徴点よりも変化速度が小さいので、境界特定部162は、変化速度に基づいて白い四角形で示す特徴点が含まれる内部空間と黒い丸で示す特徴点が含まれる外部空間との境界を特定することができる。境界特定部162は、例えば、変化速度が比較的小さい特徴点のうち、上下方向及び左右方向において、変化速度が比較的大きい特徴点に最も近い複数の特徴点を結ぶ線を境界として特定する。 Since the feature points in the internal space indicated by the white rectangles have a lower change speed than the feature points in the outer space indicated by the black circles, the boundary identifying unit 162 determines the internal space including the feature points indicated by the white rectangles based on the change speed. and the outer space containing the feature points indicated by the black circles. For example, the boundary identifying unit 162 identifies, among the feature points with relatively low change speeds, a line connecting a plurality of feature points closest to a feature point with a relatively high change speed in the vertical direction and the horizontal direction as a boundary.

同様に、境界特定部162は、特徴点までの距離の差によって境界を特定する場合、内部空間に対応する所定の距離(例えば1m)以内の距離に対応する特徴点を内部空間に対応する特徴点であると特定する。また境界特定部162は、所定の距離よりも遠い距離に対応する特徴点を外部空間に対応する特徴点であると特定する。例えば、図5において白い四角形で示す特徴点までの距離は、黒い丸で示す特徴点までの距離よりも小さいので、白い四角形で示す特徴点が含まれる内部空間と黒い丸で示す特徴点が含まれる外部空間との境界を特定することができる。 Similarly, when the boundary identifying unit 162 identifies the boundary based on the difference in distance to the feature points, the boundary identification unit 162 identifies feature points corresponding to distances within a predetermined distance (for example, 1 m) corresponding to the internal space as features corresponding to the internal space. identify it as a point. The boundary identifying unit 162 also identifies feature points corresponding to distances longer than a predetermined distance as feature points corresponding to the external space. For example, in FIG. 5, the distance to the feature points indicated by the white squares is smaller than the distance to the feature points indicated by the black circles. It is possible to identify the boundary with the external space where the

境界特定部162は、特定した境界に基づいて作成した内部空間画像データに基づいて内部空間に対応する内部空間点群データを作成し、外部空間画像データに基づいて外部空間に対応する外部空間点群データを作成する。境界特定部162は、作成した内部空間点群データ及び外部空間点群データを位置特定部163に入力する。境界特定部162は、撮像画像データを内部空間画像データと外部空間画像データとに分割し、内部空間画像データ及び外部空間画像データを位置特定部163に入力してもよい。 The boundary identifying unit 162 generates internal space point cloud data corresponding to the internal space based on the internal space image data generated based on the identified boundary, and external space point cloud data corresponding to the external space based on the external space image data. Create group data. The boundary specifying unit 162 inputs the generated internal space point cloud data and external space point cloud data to the position specifying unit 163 . The boundary identifying unit 162 may divide the captured image data into internal space image data and external space image data, and input the internal space image data and the external space image data to the position identifying unit 163 .

なお、ユーザUが頻繁に内部空間内で移動しない場合、境界の位置はほとんど変化しないと考えられる。そこで、境界特定部162は、移動体Pが移動を開始してから所定の時間が経過するまでの間に境界を特定し、特定した境界の位置を記憶部15に記憶させてもよい。その後、境界特定部162は、記憶部15に記憶された境界の位置に基づいて内部空間点群データ及び外部空間点群データを作成してもよい。 It should be noted that if the user U does not frequently move within the internal space, it is considered that the position of the boundary hardly changes. Therefore, the boundary identifying unit 162 may identify the boundary between when the moving object P starts moving and before a predetermined time elapses, and store the position of the identified boundary in the storage unit 15 . After that, the boundary specifying unit 162 may create internal space point cloud data and external space point cloud data based on the positions of the boundaries stored in the storage unit 15 .

また、境界特定部162は他の方法を用いて境界を特定してもよい。一例として、境界特定部162は、ユーザUが使用する情報端末(例えばスマートフォン)に撮像画像データに基づく画像を表示させ、操作部13を介して、ユーザUが情報端末において入力した境界を示すデータを取得することにより境界を特定してもよい。 Also, the boundary identifying unit 162 may identify the boundary using another method. As an example, the boundary specifying unit 162 causes an information terminal (for example, a smartphone) used by the user U to display an image based on the captured image data, and via the operation unit 13, data indicating the boundary input by the user U to the information terminal. Boundaries may be identified by obtaining

位置特定部163は、境界特定部162から入力された内部空間点群データに基づいて、内部空間における画像処理装置1の位置を特定し、外部空間点群データに基づいて、外部空間における移動体Pの位置を特定する。すなわち、位置特定部163は、内部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、内部空間における画像処理装置1の位置を特定し、外部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、外部空間における画像処理装置1の位置を特定する。位置特定部163は、内部空間における画像処理装置1の向き、及び外部空間における画像処理装置1の向きをさらに特定してもよい。 The position identifying unit 163 identifies the position of the image processing device 1 in the internal space based on the internal space point cloud data input from the boundary identifying unit 162, and identifies the position of the moving body in the external space based on the external space point cloud data. Locate P. That is, the position specifying unit 163 specifies the position of the image processing device 1 in the internal space based on the positions of the plurality of feature points of the subject included in the internal space image data, and determines the position of the subject included in the external space image data. The position of the image processing device 1 in the external space is identified based on the positions of the feature points of . The position specifying unit 163 may further specify the orientation of the image processing device 1 in the internal space and the orientation of the image processing device 1 in the external space.

一例として、位置特定部163は、記憶部15に記憶された複数の内部基準点群データと、境界特定部162から入力された内部空間点群データとを比較することにより、内部空間点群データに最も近い内部基準点群データを特定する。位置特定部163は、内部基準点群データに関連付けて記憶部15に記憶された位置又は向きを内部空間における画像処理装置1の位置又は向きとして特定する。位置特定部163は、特定した画像処理装置1の位置又は向きを内部画像表示処理部164に通知する。 As an example, the position specifying unit 163 compares a plurality of internal reference point cloud data stored in the storage unit 15 with the internal space point cloud data input from the boundary specifying unit 162 to obtain internal space point cloud data. Identify the closest internal reference point cloud data to . The position specifying unit 163 specifies the position or orientation stored in the storage unit 15 in association with the internal reference point cloud data as the position or orientation of the image processing device 1 in the internal space. The position specifying unit 163 notifies the internal image display processing unit 164 of the specified position or orientation of the image processing device 1 .

位置特定部163は、最新の第1撮像画像データに含まれる複数の第1特徴点の位置と、直前の第2撮像画像データに含まれる複数の第2特徴点の位置との関係に基づいて、画像処理装置1の位置及び向きを特定してもよい。具体的には、位置特定部163は、複数の第1特徴点の位置と、複数の第1特徴点それぞれに対応する第2特徴点との位置の変化量を特定し、特定した変化量に相当する距離及び向きだけ、直前に特定した画像処理装置1の位置及び向きから変化させた位置及び向きを、画像処理装置1の最新の位置及び向きとして特定する。 The position specifying unit 163 determines based on the relationship between the positions of the plurality of first feature points included in the latest first captured image data and the positions of the plurality of second feature points included in the previous second captured image data. , the position and orientation of the image processing device 1 may be specified. Specifically, the position specifying unit 163 specifies the amount of change between the positions of the plurality of first feature points and the position of the second feature points corresponding to each of the plurality of first feature points, and determines the specified amount of change. The latest position and orientation of the image processing device 1 are determined by changing the position and orientation of the image processing device 1 from the previously specified position and orientation by a corresponding distance and orientation.

この場合、位置特定部163が画像処理装置1の位置の特定に用いる特徴点に、それぞれ変化速度が異なる内部空間の特徴点と外部空間の特徴点とが混在していると、特徴点によって変化量が異なるので、位置特定部163は、画像処理装置1が存在している空間を特定できない。その結果、位置特定部163が、直前に特定した画像処理装置1の位置及び向きに基づいて、画像処理装置1の最新の位置及び向きを特定することができないという問題が生じる。 In this case, if the feature points used by the position specifying unit 163 to specify the position of the image processing device 1 include a feature point in the internal space and a feature point in the external space with different change speeds, the feature point may change depending on the feature point. Since the amounts are different, the position specifying unit 163 cannot specify the space in which the image processing device 1 exists. As a result, there arises a problem that the position specifying unit 163 cannot specify the latest position and orientation of the image processing device 1 based on the position and orientation of the image processing device 1 specified immediately before.

これに対して、位置特定部163は、最新の内部空間画像データに含まれる複数の第1特徴点の位置と、直前の内部空間画像データに含まれる複数の第2特徴点の位置との関係(すなわち位置の変化量)に基づいて、内部空間における画像処理装置1の位置を特定する。また、位置特定部163は、最新の外部空間画像データに含まれる複数の第1特徴点の位置と、直前の外部空間画像データに含まれる複数の第2特徴点の位置との関係に基づいて、外部空間における画像処理装置1の位置を特定する。位置特定部163がこのように動作することで、撮像画像データに内部空間画像データと外部空間画像データとが含まれている場合であっても、画像処理装置1は、内部空間における位置と外部空間における位置を正しく特定することができる。 On the other hand, the position specifying unit 163 determines the relationship between the positions of the plurality of first feature points included in the latest internal space image data and the positions of the plurality of second feature points included in the previous internal space image data. The position of the image processing device 1 in the internal space is specified based on (that is, the amount of change in position). Further, the position specifying unit 163 determines based on the relationship between the positions of the plurality of first feature points included in the latest external space image data and the positions of the plurality of second feature points included in the previous external space image data. , to specify the position of the image processing device 1 in the external space. With the position specifying unit 163 operating in this way, even when the captured image data includes the internal space image data and the external space image data, the image processing device 1 can determine the position in the internal space and the external space. A position in space can be correctly specified.

位置特定部163は、操作部13を介して入力された操作データが示す移動体Pの機種名に対応する内部基準点群データを用いて内部空間における画像処理装置1の位置を特定してもよい。位置特定部163がこのように動作することで、位置特定部163は多数の機種に対応する多数の内部基準点群データを参照する必要がないため、内部空間における画像処理装置1の位置を特定するために要する時間を短縮することができる。 The position specifying unit 163 may specify the position of the image processing device 1 in the internal space using the internal reference point cloud data corresponding to the model name of the mobile object P indicated by the operation data input via the operation unit 13. good. Since the position specifying unit 163 operates in this manner, the position specifying unit 163 does not need to refer to a large number of internal reference point cloud data corresponding to a large number of models, so the position of the image processing apparatus 1 in the internal space can be specified. can reduce the time required to

同様に、位置特定部163は、記憶部15に記憶された複数の外部基準点群データと、境界特定部162から入力された外部空間点群データとを比較することにより、外部空間点群データに最も近い外部基準点群データを特定する。位置特定部163は、外部基準点群データに関連付けて記憶部15に記憶された位置又は向きを外部空間における画像処理装置1の位置又は向きとして特定する。位置特定部163は、特定した画像処理装置1の位置又は向きを外部画像表示処理部165に通知する。 Similarly, the position specifying unit 163 compares the plurality of external reference point cloud data stored in the storage unit 15 with the external space point cloud data input from the boundary specifying unit 162 to determine the external space point cloud data. Identify the closest external reference point cloud data to . The position specifying unit 163 specifies the position or orientation stored in the storage unit 15 in association with the external reference point cloud data as the position or orientation of the image processing device 1 in the external space. The position specifying unit 163 notifies the external image display processing unit 165 of the specified position or orientation of the image processing device 1 .

位置特定部163は、操作部13を介して入力された操作データが示す移動体Pの場所に対応する外部基準点群データを用いて外部空間における画像処理装置1の位置を特定してもよい。位置特定部163がこのように動作することで、位置特定部163は多数の場所に対応する多数の外部基準点群データを参照する必要がないため、外部空間における画像処理装置1の位置を特定するために要する時間を短縮することができる。 The position specifying unit 163 may specify the position of the image processing device 1 in the external space using external reference point cloud data corresponding to the location of the mobile object P indicated by the operation data input via the operation unit 13. . With the position specifying unit 163 operating in this manner, the position specifying unit 163 does not need to refer to a large number of external reference point cloud data corresponding to a large number of locations, so the position of the image processing device 1 in the external space can be specified. can reduce the time required to

ところで、内部空間画像データは外部空間画像データに比べて変化が少ない。そこで、位置特定部163は、外部空間における画像処理装置1の位置を特定する処理を実行する周期よりも遅い周期で、内部空間における画像処理装置1の位置を特定してもよい。位置特定部163がこのように動作することで、処理の負荷を下げることができるので、位置特定部163が外部空間における画像処理装置1の位置の特定に要する時間を短縮することができる。 By the way, internal space image data changes less than external space image data. Therefore, the position specifying unit 163 may specify the position of the image processing device 1 in the internal space at a cycle slower than the cycle of executing the process of specifying the position of the image processing device 1 in the external space. By operating the position specifying unit 163 in this manner, the processing load can be reduced, so the time required for the position specifying unit 163 to specify the position of the image processing device 1 in the external space can be shortened.

内部画像表示処理部164は、記憶部15に記憶された複数の内部AR画像データを参照し、位置特定部163が特定した内部空間における画像処理装置1の位置に対応する内部AR画像を表示部12に表示させるように表示処理部166に指示する。内部画像表示処理部164は、内部空間における画像処理装置1の向きに対応する内部AR画像を表示させてもよい。内部画像表示処理部164は、記憶部15に記憶された複数の内部基準点群データのうち内部点群データに最も近い内部基準点群データを特定し、特定した内部基準点群データに関連付けて記憶された内部AR画像データを表示部12に表示させてもよい。 The internal image display processing unit 164 refers to a plurality of internal AR image data stored in the storage unit 15, and displays an internal AR image corresponding to the position of the image processing apparatus 1 in the internal space specified by the position specifying unit 163. 12 is instructed to the display processing unit 166 . The internal image display processing unit 164 may display an internal AR image corresponding to the orientation of the image processing device 1 in the internal space. The internal image display processing unit 164 identifies the internal reference point cloud data closest to the internal reference point cloud data among the plurality of internal reference point cloud data stored in the storage unit 15, and associates the internal reference point cloud data with the identified internal reference point cloud data. The stored internal AR image data may be displayed on the display unit 12 .

内部画像表示処理部164は、表示部12における、特定した内部AR画像データに関連付けて記憶部15に記憶された位置に、内部AR画像データに基づく内部AR画像を表示させるように表示処理部166に指示する。内部画像表示処理部164は、例えば、図2(a)に示した内部AR画像G1及び図2(b)に示した内部AR画像G1’のように、撮像画像における内部空間内の所定の被写体(例えば操縦桿H)の位置を基準にして定められた位置に内部AR画像を表示させる。メータM2が速度計である場合、内部画像表示処理部164は、速度計の位置を基準にして定められた位置に、速度に関する情報を含む内部AR画像を表示させてもよい。 The internal image display processing unit 164 causes the display processing unit 166 to display the internal AR image based on the internal AR image data at the position stored in the storage unit 15 in association with the specified internal AR image data on the display unit 12. direct to. The internal image display processing unit 164 displays a predetermined subject in the internal space in the captured image, such as the internal AR image G1 shown in FIG. 2(a) and the internal AR image G1′ shown in FIG. 2(b). The internal AR image is displayed at a position determined with reference to the position of (for example, the control stick H). If the meter M2 is a speedometer, the internal image display processing unit 164 may display an internal AR image including information about speed at a position determined with reference to the position of the speedometer.

この際、内部画像表示処理部164は、画像処理装置1の傾き(すなわちユーザUの傾き)によらず、表示部12の方向を基準として定められた方向に内部AR画像を表示してもよい。内部AR画像が、内部画像及び外部画像の被写体の傾きに連動する必要がない内容を含む場合、内部画像表示処理部164がこのように動作することで、ユーザUが姿勢を傾けた状態においても内部AR画像の内容を把握しやすくなる。なお、内部AR画像が、内部空間内の被写体を操作する向きを示す情報を含む場合、内部画像表示処理部164は、画像処理装置1の傾きに連動して内部AR画像が表示部12の方向に対して傾いた状態で内部AR画像を表示させてもよい。 At this time, the internal image display processing unit 164 may display the internal AR image in a direction determined with reference to the direction of the display unit 12 regardless of the tilt of the image processing device 1 (that is, the tilt of the user U). . When the internal AR image includes content that does not need to be linked to the inclination of the subject in the internal image and the external image, the internal image display processing unit 164 operates in this way so that even when the user U is tilted, This makes it easier to grasp the content of the internal AR image. Note that when the internal AR image includes information indicating the direction in which the subject in the internal space is operated, the internal image display processing unit 164 displays the internal AR image in the direction of the display unit 12 in conjunction with the tilt of the image processing device 1. The internal AR image may be displayed in a state of being tilted with respect to .

また、内部画像表示処理部164は、内部空間の状態が所定の状態になったことを条件にして内部AR画像を表示させてもよい。一例として、内部画像表示処理部164は、内部空間画像データに基づいてコックピット内の表示灯(例えばアラーム灯)の状態が変化したことを検出した場合に、当該表示灯を基準とする所定の位置に、どのような対応をすべきかを示す情報を含む内部AR画像を表示させてもよい。 Further, the internal image display processing unit 164 may display the internal AR image on condition that the state of the internal space has reached a predetermined state. As an example, when the internal image display processing unit 164 detects that the state of an indicator light (for example, an alarm light) in the cockpit has changed based on the internal space image data, may display an internal AR image containing information indicating what action should be taken.

ところで、ユーザUが後ろにのけぞった姿勢になった場合、内部空間の被写体(例えばコックピットの操縦桿HやメータM1)が小さく見える。そこで、内部画像表示処理部164は、これらの被写体の大きさに合わせて内部AR画像の大きさが変化させてもよい。具体的には、内部画像表示処理部164は、撮像画像データにおける一以上の被写体の特徴を示す複数の特徴点のパターンに基づいて決定した大きさの内部拡張現実画像を表示部12に表示させてもよい。 By the way, when the user U takes a posture of leaning back, objects in the interior space (for example, the control stick H of the cockpit and the meter M1) look small. Therefore, the internal image display processing unit 164 may change the size of the internal AR image according to the size of these subjects. Specifically, the internal image display processing unit 164 causes the display unit 12 to display an internal augmented reality image having a size determined based on a pattern of a plurality of feature points representing features of one or more subjects in the captured image data. may

より具体的には、内部画像表示処理部164は、位置特定部163が作成した内部空間点群データに最も近い内部基準点群データに関連付けて記憶部15に記憶された大きさの内部AR画像データを特定し、特定した内部AR画像を表示部12に表示させる。内部画像表示処理部164がこのように動作することで、ユーザUの姿勢によって内部AR画像の大きさが変化するので、あたかも内部空間に内部AR画像が存在するかのように見えて臨場感が増す。 More specifically, the internal image display processing unit 164 displays the internal AR image of the size stored in the storage unit 15 in association with the internal reference point cloud data closest to the internal space point cloud data created by the position specifying unit 163. The data is specified, and the specified internal AR image is displayed on the display unit 12 . With the internal image display processing unit 164 operating in this way, the size of the internal AR image changes depending on the posture of the user U, so it looks as if the internal AR image exists in the internal space, giving a sense of presence. Increase.

外部画像表示処理部165は、記憶部15に記憶された複数の外部AR画像データを参照し、位置特定部163が特定した外部空間における画像処理装置1の位置に対応する外部AR画像を表示部12に表示させるように表示処理部166に指示する。外部画像表示処理部165は、表示部12における、外部空間における画像処理装置1の位置に関連付けて予め記憶部15に記憶された位置に、外部AR画像を表示させる。外部画像表示処理部165は、外部空間における画像処理装置1の向きに対応する内部AR画像を表示させてもよい。外部画像表示処理部165は、位置特定部163が作成した外部空間点群データに最も近い外部基準点群データに関連付けて記憶部15に記憶された外部AR画像データを特定し、特定した外部AR画像データに基づく外部AR画像を表示部12に表示させてもよい。 The external image display processing unit 165 refers to a plurality of external AR image data stored in the storage unit 15, and displays an external AR image corresponding to the position of the image processing apparatus 1 in the external space specified by the position specifying unit 163. 12 is instructed to the display processing unit 166 . The external image display processing unit 165 causes the display unit 12 to display an external AR image at a position stored in advance in the storage unit 15 in association with the position of the image processing device 1 in the external space. The external image display processing unit 165 may display an internal AR image corresponding to the orientation of the image processing device 1 in the external space. The external image display processing unit 165 identifies the external AR image data stored in the storage unit 15 in association with the external reference point cloud data closest to the external space point cloud data created by the position identifying unit 163, and specifies the external AR An external AR image based on image data may be displayed on the display unit 12 .

表示処理部166は、内部画像表示処理部164から入力された内部AR画像データ及び外部画像表示処理部165から入力された外部AR画像データを表示部12に表示させる。表示処理部166は、画像データ取得部161から撮像画像データを取得し、取得した撮像画像データと内部AR画像データ及び外部AR画像データを合成した画像データに基づく画像を表示部12に表示させてもよい。 The display processing unit 166 causes the display unit 12 to display the internal AR image data input from the internal image display processing unit 164 and the external AR image data input from the external image display processing unit 165 . The display processing unit 166 acquires captured image data from the image data acquisition unit 161, and causes the display unit 12 to display an image based on image data obtained by synthesizing the acquired captured image data, the internal AR image data, and the external AR image data. good too.

[画像処理装置1における処理の流れ]
図6は、画像処理装置1における処理の流れを示すフローチャートである。図6に示すフローチャートは、画像処理装置1の電源が投入された時点から開始している。
[Flow of processing in image processing apparatus 1]
FIG. 6 is a flow chart showing the flow of processing in the image processing apparatus 1. As shown in FIG. The flowchart shown in FIG. 6 starts when the power of the image processing apparatus 1 is turned on.

画像データ取得部161は、所定の時間間隔で撮像部11から撮像画像データを取得する(S11)。境界特定部162は、取得された撮像画像データに含まれる被写体の特徴点を抽出することにより点群データを作成し、作成した点群データを時刻に関連付けて記憶部15に記憶させる(S12)。 The image data acquisition unit 161 acquires captured image data from the imaging unit 11 at predetermined time intervals (S11). The boundary specifying unit 162 creates point cloud data by extracting the feature points of the subject included in the acquired captured image data, and stores the created point cloud data in the storage unit 15 in association with time (S12). .

境界特定部162は、作成した点群データを直前の撮像画像データに対応する点群データと比較することにより、各特徴点の位置の変化速度を特定する(S13)。境界特定部162は、特定した変化速度を分類することにより、撮像画像データにおける内部空間に対応する領域と外部空間に対応する領域との境界を特定する(S14)。境界特定部162は、特定した境界に基づいて、内部空間に対応する内部空間点群データと、外部空間に対応する外部空間点群データとを作成する(S15)。境界特定部162は、作成した内部空間点群データ及び外部空間点群データを時刻に関連付けて記憶部15に記憶させる。 The boundary specifying unit 162 specifies the change speed of the position of each feature point by comparing the generated point cloud data with the point cloud data corresponding to the immediately preceding captured image data (S13). The boundary identification unit 162 identifies the boundary between the area corresponding to the internal space and the area corresponding to the external space in the captured image data by classifying the identified change speeds (S14). The boundary identification unit 162 creates internal space point cloud data corresponding to the internal space and external space point cloud data corresponding to the external space based on the identified boundary (S15). The boundary specifying unit 162 stores the generated internal space point cloud data and external space point cloud data in the storage unit 15 in association with time.

続いて、位置特定部163は、記憶部15に記憶された複数の内部基準点群データのうち境界特定部162が作成した内部空間点群データに最も類似する内部基準点群データを特定し、特定した内部基準点群データに関連付けて記憶部15に記憶された位置を、画像処理装置1の内部空間における位置として特定する(S16)。内部画像表示処理部164は、位置特定部163が特定した内部空間における位置に対応する内部AR画像を表示部12に表示させる(S17)。 Subsequently, the position specifying unit 163 specifies the internal reference point cloud data most similar to the internal space point cloud data created by the boundary specifying unit 162 among the plurality of internal reference point cloud data stored in the storage unit 15, The position stored in the storage unit 15 in association with the specified internal reference point cloud data is specified as the position in the internal space of the image processing device 1 (S16). The internal image display processing unit 164 causes the display unit 12 to display an internal AR image corresponding to the position in the internal space specified by the position specifying unit 163 (S17).

同様に、位置特定部163は、記憶部15に記憶された複数の外部基準点群データのうち境界特定部162が作成した外部空間点群データに最も類似する外部基準点群データを特定し、特定した外部基準点群データに関連付けて記憶部15に記憶された位置を、画像処理装置1の外部空間における位置として特定する(S18)。外部画像表示処理部165は、位置特定部163が特定した外部空間における位置に対応する外部AR画像を表示部12に表示させる(S19)。なお、S16及びS17とS18及びS19とを実行する順序は任意である。 Similarly, the position specifying unit 163 specifies the external reference point cloud data most similar to the external space point cloud data created by the boundary specifying unit 162 among the plurality of external reference point cloud data stored in the storage unit 15, The position stored in the storage unit 15 in association with the specified external reference point cloud data is specified as the position in the external space of the image processing device 1 (S18). The external image display processing unit 165 causes the display unit 12 to display an external AR image corresponding to the position in the external space specified by the position specifying unit 163 (S19). The order of executing S16 and S17 and S18 and S19 is arbitrary.

画像処理装置1は、AR画像の表示を中止する操作が操作部13で行われるまでの間(S20においてNO)、S11からS19までの処理を繰り返す。 The image processing device 1 repeats the processes from S11 to S19 until an operation to stop displaying the AR image is performed on the operation unit 13 (NO in S20).

[画像処理装置1による効果]
以上説明したように、位置特定部163は、内部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、内部空間における画像処理装置1の位置を特定し、外部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、外部空間における画像処理装置の位置を特定する。画像処理装置1がこのように構成されていることで、移動体Pに乗っている人が移動体Pの内部の空間と外部の空間とを同時に見る場合においても、画像処理装置1の位置を正しく特定することができる。
[Effect of Image Processing Apparatus 1]
As described above, the position specifying unit 163 specifies the position of the image processing device 1 in the internal space based on the positions of the plurality of feature points of the subject included in the internal space image data, The position of the image processing device in the external space is specified based on the positions of the plurality of feature points of the subject. Since the image processing device 1 is configured in this way, even when a person riding the moving body P sees the space inside and outside the moving body P at the same time, the position of the image processing device 1 can be determined. can be correctly identified.

また、位置特定部163が、内部空間における画像処理装置1の位置を特定することで、内部画像表示処理部164は、内部空間における画像処理装置1の位置に対応する内部AR画像を、ユーザが見ている内部空間又は外部空間における所定の位置に表示部12に表示させることができる。また、外部画像表示処理部165は、外部空間における画像処理装置1の位置に対応する外部AR画像を、ユーザUが見ている内部空間又は外部空間における所定の位置に表示部12に表示させることができる。 Further, the position specifying unit 163 specifies the position of the image processing device 1 in the internal space, so that the internal image display processing unit 164 displays the internal AR image corresponding to the position of the image processing device 1 in the internal space. It can be displayed on the display unit 12 at a predetermined position in the viewed internal space or external space. Further, the external image display processing unit 165 causes the display unit 12 to display an external AR image corresponding to the position of the image processing device 1 in the external space at a predetermined position in the internal space or the external space viewed by the user U. can be done.

内部画像表示処理部164及び外部画像表示処理部165がこのように構成されていることで、変化する速度がそれぞれ異なる内部空間と外部空間をユーザUが見ている状態において、内部空間の状態及び外部空間の状態のそれぞれに適した内部AR画像及び外部AR画像をユーザUに提示することができる。したがって、画像処理装置1は、移動体Pに乗ったユーザUが装着して使用した状態でAR画像を表示する必要がある用途において好適である。 By configuring the internal image display processing unit 164 and the external image display processing unit 165 in this way, the state of the internal space and the state of the internal space and the The user U can be presented with an internal AR image and an external AR image suitable for each state of the external space. Therefore, the image processing device 1 is suitable for use in which an AR image must be displayed while being worn by a user U riding a mobile object P.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist thereof. be. For example, all or part of the device can be functionally or physically distributed and integrated in arbitrary units. In addition, new embodiments resulting from arbitrary combinations of multiple embodiments are also included in the embodiments of the present invention. The effect of the new embodiment caused by the combination has the effect of the original embodiment.

1 画像処理装置
11 撮像部
12 表示部
13 操作部
14 通信部
15 記憶部
16 制御部
121 右側レンズ
122 左側レンズ
123 右側投影部
124 左側投影部
161 画像データ取得部
162 境界特定部
163 位置特定部
164 内部画像表示処理部
165 外部画像表示処理部
166 表示処理部
1 Image processing device 11 Imaging unit 12 Display unit 13 Operation unit 14 Communication unit 15 Storage unit 16 Control unit 121 Right lens 122 Left lens 123 Right projection unit 124 Left projection unit 161 Image data acquisition unit 162 Boundary identification unit 163 Position identification unit 164 Internal image display processing unit 165 External image display processing unit 166 Display processing unit

Claims (10)

人が装着可能な画像処理装置であって、
移動体に乗っている人が装着している前記画像処理装置が前記移動体の内部空間と前記移動体の外部空間とを撮影することにより生成された撮像画像データを取得する画像データ取得部と、
前記撮像画像データにおける前記内部空間に対応する内部空間画像データと、前記撮像画像データにおける前記外部空間に対応する外部空間画像データとの境界を特定する境界特定部と、
前記内部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記内部空間における前記画像処理装置の位置を特定し、前記外部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記外部空間における前記画像処理装置の位置を特定する位置特定部と、
を有する画像処理装置。
An image processing device wearable by a person,
an image data acquisition unit configured to acquire captured image data generated by the image processing device worn by a person riding a moving object capturing images of an internal space of the moving object and an external space of the moving object; ,
a boundary identifying unit that identifies a boundary between internal space image data corresponding to the internal space in the captured image data and external space image data corresponding to the external space in the captured image data;
The position of the image processing device in the internal space is specified based on the positions of the plurality of feature points of the subject contained in the internal space image data, and the positions of the plurality of feature points of the subject contained in the external space image data. a position specifying unit that specifies the position of the image processing device in the external space based on
An image processing device having
前記位置特定部は、最新の前記内部空間画像データに含まれる前記複数の特徴点の位置と、直前の前記内部空間画像データに含まれる前記複数の特徴点の位置との関係に基づいて、前記内部空間における前記画像処理装置の位置を特定し、最新の前記外部空間画像データに含まれる前記複数の特徴点の位置と、直前の前記外部空間画像データに含まれる前記複数の特徴点の位置との関係に基づいて、前記外部空間における前記画像処理装置の位置を特定する、
請求項1に記載の画像処理装置。
The position specifying unit, based on the relationship between the positions of the plurality of feature points included in the latest internal space image data and the positions of the plurality of feature points included in the previous internal space image data, The positions of the image processing device in the internal space are specified, and the positions of the plurality of feature points included in the latest external space image data and the positions of the plurality of feature points included in the immediately previous external space image data are determined. Identifying the position of the image processing device in the external space based on the relationship of
The image processing apparatus according to claim 1.
前記位置特定部は、前記外部空間における前記画像処理装置の位置を特定する処理を実行する周期よりも遅い周期で、前記内部空間における前記画像処理装置の位置を特定する、
請求項1又は2に記載の画像処理装置。
The position specifying unit specifies the position of the image processing device in the internal space at a cycle slower than the cycle of executing the process of specifying the position of the image processing device in the external space.
The image processing apparatus according to claim 1 or 2.
前記位置特定部が特定した前記内部空間における前記画像処理装置の位置に対応する内部拡張現実画像を前記画像処理装置が有する表示部に表示させる内部画像表示処理部と、
前記位置特定部が特定した前記外部空間における前記画像処理装置の位置に対応する外部拡張現実画像を前記表示部に表示させる外部画像表示処理部と、
をさらに有する、
請求項1から3のいずれか一項に記載の画像処理装置。
an internal image display processing unit that causes a display unit of the image processing device to display an internal augmented reality image corresponding to the position of the image processing device in the internal space specified by the position specifying unit;
an external image display processing unit that causes the display unit to display an external augmented reality image corresponding to the position of the image processing device in the external space specified by the position specifying unit;
further having
The image processing apparatus according to any one of claims 1 to 3.
前記内部画像表示処理部は、前記表示部における、前記撮像画像データにおける前記内部空間内の所定の被写体を基準とする位置に前記内部拡張現実画像を表示させる、
請求項4に記載の画像処理装置。
The internal image display processing unit causes the display unit to display the internal augmented reality image at a position based on a predetermined subject in the internal space in the captured image data.
The image processing apparatus according to claim 4.
前記内部画像表示処理部は、前記撮像画像データにおける一以上の被写体の特徴を示す複数の特徴点のパターンに基づいて決定した大きさの前記内部拡張現実画像を前記表示部に表示させる、
請求項4又は5に記載の画像処理装置。
The internal image display processing unit causes the display unit to display the internal augmented reality image having a size determined based on a pattern of a plurality of feature points representing characteristics of one or more subjects in the captured image data,
The image processing apparatus according to claim 4 or 5.
前記外部画像表示処理部は、前記表示部における、前記外部空間における前記画像処理装置の位置に関連付けて予め記憶部に記憶された位置に前記外部拡張現実画像を表示させる、
請求項4から6のいずれか一項に記載の画像処理装置。
The external image display processing unit causes the display unit to display the external augmented reality image at a position stored in advance in a storage unit in association with the position of the image processing device in the external space.
The image processing apparatus according to any one of claims 4 to 6.
前記画像データ取得部は、所定の時間間隔ごとに前記撮像画像データを取得し、
前記境界特定部は、異なる時刻に取得された複数の前記撮像画像データにおける含まれる複数の被写体それぞれの位置の変化速度に基づいて前記境界を特定する、
請求項1から7のいずれか一項に記載の画像処理装置。
The image data acquisition unit acquires the captured image data at predetermined time intervals,
The boundary identifying unit identifies the boundary based on a rate of change in position of each of the plurality of subjects included in the plurality of captured image data acquired at different times.
The image processing apparatus according to any one of claims 1 to 7.
プロセッサが実行する、
移動体に乗っている人が装着している画像処理装置が前記移動体の内部空間と前記移動体の外部空間とを撮影することにより生成された撮像画像データを取得するステップと、
前記撮像画像データにおける前記内部空間に対応する内部空間画像データと、前記撮像画像データにおける前記外部空間に対応する外部空間画像データとを特定するステップと、
前記内部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記内部空間における前記画像処理装置の位置を特定するステップと、
前記外部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記外部空間における前記画像処理装置の位置を特定するステップと、
を有する画像処理方法。
the processor executes
obtaining captured image data generated by an image processing device worn by a person riding a moving object capturing images of an internal space of the moving object and an external space of the moving object;
identifying internal space image data corresponding to the internal space in the captured image data and external space image data corresponding to the external space in the captured image data;
identifying the position of the image processing device in the internal space based on the positions of a plurality of feature points of the subject included in the internal space image data;
identifying the position of the image processing device in the external space based on the positions of a plurality of feature points of the subject included in the external space image data;
An image processing method comprising:
プロセッサに、
移動体に乗っている人が装着している画像処理装置が前記移動体の内部空間と前記移動体の外部空間とを撮影することにより生成された撮像画像データを取得するステップと、
前記撮像画像データにおける前記内部空間に対応する内部空間画像データと、前記撮像画像データにおける前記外部空間に対応する外部空間画像データとを特定するステップと、
前記内部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記内部空間における前記画像処理装置の位置を特定するステップと、
前記外部空間画像データに含まれる被写体の複数の特徴点の位置に基づいて、前記外部空間における前記画像処理装置の位置を特定するステップと、
を実行させるためのプログラム。

to the processor,
obtaining captured image data generated by an image processing device worn by a person riding a moving object capturing images of an internal space of the moving object and an external space of the moving object;
identifying internal space image data corresponding to the internal space in the captured image data and external space image data corresponding to the external space in the captured image data;
identifying the position of the image processing device in the internal space based on the positions of a plurality of feature points of the subject included in the internal space image data;
identifying the position of the image processing device in the external space based on the positions of a plurality of feature points of the subject included in the external space image data;
program to run the

JP2021172627A 2021-10-21 2021-10-21 Image processing device, image processing method and program Pending JP2023062575A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021172627A JP2023062575A (en) 2021-10-21 2021-10-21 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021172627A JP2023062575A (en) 2021-10-21 2021-10-21 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2023062575A true JP2023062575A (en) 2023-05-08

Family

ID=86269774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021172627A Pending JP2023062575A (en) 2021-10-21 2021-10-21 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2023062575A (en)

Similar Documents

Publication Publication Date Title
CN110022470B (en) Method and system for training object detection algorithm using composite image and storage medium
JP7036879B2 (en) Techniques for displaying text more efficiently in virtual image generation systems
US9778464B2 (en) Shape recognition device, shape recognition program, and shape recognition method
CN110377148B (en) Computer readable medium, method of training object detection algorithm, and training apparatus
US10769437B2 (en) Adaptive sampling of training views
US10884576B2 (en) Mediated reality
US10634918B2 (en) Internal edge verification
KR20170031733A (en) Technologies for adjusting a perspective of a captured image for display
US11710350B2 (en) Sensor fusion eye tracking
CN114761909A (en) Content stabilization for head-mounted displays
JP2007042055A (en) Image processing method and image processor
CN110031975B (en) Method and system for calibrating augmented reality glasses in vehicle and augmented reality glasses
CN110895676B (en) dynamic object tracking
US10755434B2 (en) Low feature object detection and pose estimation for image data streams
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
CN112840379A (en) Information processing apparatus, information processing method, and program
US10296098B2 (en) Input/output device, input/output program, and input/output method
CN108885802B (en) Information processing apparatus, information processing method, and storage medium
JP6632298B2 (en) Information processing apparatus, information processing method and program
JP2019066618A (en) Image display system, image display method and image display program
JP2023062575A (en) Image processing device, image processing method and program
JPWO2016185634A1 (en) Information processing device
TWI767179B (en) Method, virtual reality system and recording medium for detecting real-world light resource in mixed reality
JP2020149216A (en) Information processing device, information processing method, and program
KR20230106800A (en) Augmented reality display device and method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231128