JP5521599B2 - Video composition apparatus and video composition program - Google Patents

Video composition apparatus and video composition program Download PDF

Info

Publication number
JP5521599B2
JP5521599B2 JP2010025401A JP2010025401A JP5521599B2 JP 5521599 B2 JP5521599 B2 JP 5521599B2 JP 2010025401 A JP2010025401 A JP 2010025401A JP 2010025401 A JP2010025401 A JP 2010025401A JP 5521599 B2 JP5521599 B2 JP 5521599B2
Authority
JP
Japan
Prior art keywords
camera
video
fitness
display range
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010025401A
Other languages
Japanese (ja)
Other versions
JP2011166351A (en
Inventor
卓志 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010025401A priority Critical patent/JP5521599B2/en
Publication of JP2011166351A publication Critical patent/JP2011166351A/en
Application granted granted Critical
Publication of JP5521599B2 publication Critical patent/JP5521599B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、俯瞰映像を合成して表示する技術に関する。   The present invention relates to a technique for combining and displaying a bird's-eye view video.

従来より、1台の自動車に搭載した複数台のカメラ映像から、その自動車周辺を含む1つの俯瞰映像を合成し、それを自動車の運転席に設置したディスプレイに表示するシステムが存在する。   2. Description of the Related Art Conventionally, there is a system that synthesizes a single bird's-eye view image including the periphery of a vehicle from a plurality of camera images mounted on one vehicle and displays it on a display installed in a driver's seat of the vehicle.

典型的には、乗用車の前後左右に搭載した4台のカメラで車両周囲を撮影した映像から、自車両周囲を含む1つの俯瞰映像を合成し、車載ディスプレイに表示するシステムである(例えば、特許文献1参照)。この従来技術においては、俯瞰映像を合成するのに用いる車載カメラは、例えば、予め定めた4つのカメラを固定的に用いている。   Typically, this is a system that synthesizes a single bird's-eye view image that includes the surroundings of the vehicle from images captured by the four cameras mounted on the front, rear, left, and right of the passenger car and displays them on an in-vehicle display (for example, patents). Reference 1). In this prior art, for example, four predetermined cameras are fixedly used as the vehicle-mounted camera used for synthesizing the overhead view video.

例えば、大型トラックやバスのように長尺の車両の場合、車両全体、及びその周囲を含む俯瞰映像を1つの画面に表示すると、俯瞰映像の縮小されて映像が小さくなり、車両周囲が小さく映るため、画面上で車両周辺状況が確認しづらい。   For example, in the case of a long vehicle such as a large truck or bus, when the bird's-eye view image including the entire vehicle and its surroundings is displayed on one screen, the bird's-eye view image is reduced and the image becomes smaller, and the vehicle periphery appears smaller. Therefore, it is difficult to check the situation around the vehicle on the screen.

車両周辺状況が確認しづらいことの対策として、俯瞰映像の一部を、利用者指示に基づき、又は車両情報等に基づき自動でズームアップして表示することが考えられる(例えば、特許文献2参照)。しかし、その場合、使用するカメラ数が少ないと、特にカメラから遠い場所については、映像の解像度が低下する。   As a countermeasure against the difficulty of confirming the vehicle surrounding situation, it is conceivable to display a part of the bird's-eye view video by automatically zooming up based on a user instruction or based on vehicle information or the like (for example, see Patent Document 2). ). However, in that case, if the number of cameras used is small, the resolution of the video is lowered particularly in places far from the cameras.

そこで、さらに映像の解像度が低下することの対策として、俯瞰映像を表示すべき対象領域を、至近距離から撮影した映像で全てカバーできるよう、カメラの台数を増やすことが考えられる。   Therefore, as a countermeasure against a further reduction in the resolution of the video, it is conceivable to increase the number of cameras so that the target area where the overhead video is to be displayed can be entirely covered with the video taken from a close distance.

特開2003−235036号公報JP 2003-235036 A 特許第3300334号公報(国際出願番号PCT/JP00/02474)Japanese Patent No. 3300334 (International Application No. PCT / JP00 / 02474)

しかしながら、上記従来技術では、1つの俯瞰映像の合成に利用するカメラ映像の数が増えると、映像合成のために必要な回路規模の増大や、演算処理量の増大を招くという問題がある。   However, in the above-described conventional technology, there is a problem that when the number of camera videos used for synthesizing one bird's-eye view video increases, the circuit scale necessary for video synthesis increases and the amount of calculation processing increases.

そこで、本発明では、複数のカメラ映像から1つの俯瞰映像を合成する装置において、使用するカメラの数が増えても、映像の解像度が低下しないように、自動的に最適な映像が表示されるようにすることを目的とする。   Therefore, in the present invention, in an apparatus that synthesizes a single bird's-eye view image from a plurality of camera images, an optimum image is automatically displayed so that the resolution of the image does not decrease even when the number of cameras used increases. The purpose is to do so.

上記の目的を達成するために、以下に開示する映像合成装置は、複数のカメラの映像から1つの俯瞰映像を合成する映像合成装置であって、入力情報を受付ける入力情報受付部と、前記入力情報受付部が受付けた入力情報に基づいて俯瞰映像の表示範囲を決定する表示範囲決定部と、前記表示範囲決定部が決定した俯瞰映像の表示範囲に基づき、当該表示範囲の俯瞰映像の合成に用いる映像を撮影する所定数のカメラを選択して決定するカメラ選択決定部と、前記カメラ選択決定部が決定した所定数のカメラの映像における重複部分について、いずれのカメラの映像を割り当てるかを決定するカメラ映像割り当て決定部と、前記カメラ映像割り当て決定部の割り当てに基づいて、前記カメラ選択決定部が決定した所定数のカメラによって撮影された映像を用いて、前記俯瞰映像を合成して表示する映像合成部とを備える。   In order to achieve the above object, a video synthesizing apparatus disclosed below is a video synthesizing apparatus that synthesizes one overhead image from videos of a plurality of cameras, an input information receiving unit that receives input information, and the input A display range determination unit that determines a display range of the overhead view video based on the input information received by the information reception unit, and a composition of the overhead view video of the display range based on the display range of the overhead view video determined by the display range determination unit A camera selection deciding unit that selects and decides a predetermined number of cameras that shoot the video to be used, and decides which camera video is assigned to the overlapping portion of the predetermined number of camera images determined by the camera selection deciding unit And a predetermined number of cameras determined by the camera selection determination unit based on the allocation of the camera video allocation determination unit and the camera video allocation determination unit The using the video, and a video synthesizing unit which displays by combining the bird's-eye-view video.

上記の構成によれば、複数のカメラ映像から1つの俯瞰映像を合成する装置において、俯瞰映像の合成に使用するカメラの映像を効率よく割り当てることにより、使用するカメラの数が増えても、映像の解像度が低下しないように、自動的に最適な俯瞰映像が合成されて、表示装置に出力されるようにすることができる。   According to the above configuration, even if the number of cameras to be used increases in an apparatus that synthesizes one bird's-eye view image from a plurality of camera images, by efficiently assigning the camera images used for the bird's-eye view image composition, In order to prevent the resolution of the image from decreasing, an optimum overhead view video can be automatically synthesized and output to the display device.

本発明のシステム構成System configuration of the present invention 俯瞰映像領域、車両、及びカメラの関係とカメラの視野The relationship between the bird's-eye view image area, the vehicle, and the camera, and the field of view メッシュ状に分割された俯瞰映像領域Overhead video area divided into meshes 表示モードごとの各カメラの適合度マップを定義するテーブルの例Example of a table that defines the fitness map of each camera for each display mode 本発明の全体処理フローチャートOverall processing flowchart of the present invention カメラ選択決定処理のフローチャートFlow chart of camera selection decision processing カメラ割当決定処理のフローチャートFlow chart of camera allocation decision processing 表示範囲とカメラ割当の例Example of display range and camera assignment 表示範囲とカメラ割当の例Example of display range and camera assignment

[実施形態]
図1は、本発明の実施形態に係る映像合成装置100の全体構成を示すブロック図である。図1において、映像合成装置100は、入力情報受付部110、表示範囲決定部120、カメラ選択決定部130、適合度マップ記憶部140、カメラ映像割り当て決定部150、入力映像選択部160、及び映像合成部170を備える。ここでは、一例として映像合成装置100が車載システムに組み込まれる場合について説明する。
[Embodiment]
FIG. 1 is a block diagram showing the overall configuration of a video composition device 100 according to an embodiment of the present invention. In FIG. 1, the video composition device 100 includes an input information reception unit 110, a display range determination unit 120, a camera selection determination unit 130, a fitness map storage unit 140, a camera video allocation determination unit 150, an input video selection unit 160, and a video. A synthesis unit 170 is provided. Here, as an example, a case where the video composition device 100 is incorporated in an in-vehicle system will be described.

入力情報受付部110は、車両情報及びユーザからの入力情報を受付ける。車両情報は、例えば車両の制御部から送られる車両の直進、右折、左折、後退等の状態を示す情報である。また、入力情報は、例えばユーザから入力ボタン、マイク等を介して指定された俯瞰映像の表示範囲等の情報である。   The input information receiving unit 110 receives vehicle information and input information from the user. The vehicle information is, for example, information indicating a state such as a straight turn, a right turn, a left turn, and a reverse turn of the vehicle sent from the vehicle control unit. The input information is information such as a display range of a bird's-eye view video specified by the user via an input button, a microphone, or the like.

表示範囲決定部120は、入力情報受付部110で受付けた車両情報等の情報と、利用者指示入力情報に基づき、俯瞰映像として表示する範囲(以下、俯瞰映像の表示範囲とする)、及び表示モードを予め定めた手順にしたがって決定する。表示モードは、例えば様々な場合に適切な俯瞰映像表示を行うために予め設定された複数の表示形式であり、例えば車両の直進、右折、左折、後退等の状態に応じて切り替わるモードでも、ユーザの指定により切り替わるモードであってもよい。   The display range determination unit 120 is a range to be displayed as a bird's-eye view video (hereinafter referred to as a bird's-eye view video display range) based on information such as vehicle information received by the input information receiving unit 110 and user instruction input information, and a display The mode is determined according to a predetermined procedure. The display mode is, for example, a plurality of display formats set in advance in order to display an appropriate bird's-eye view video image in various cases. For example, even in a mode in which the vehicle is switched according to the state of going straight, turning right, turning left, reverse, etc. The mode may be switched according to the designation.

カメラ選択決定部130は、表示範囲決定部120で決定された俯瞰映像の表示範囲、及び表示モードに基づき、映像合成に用いるカメラの組を選択して決定する。   The camera selection determination unit 130 selects and determines a set of cameras used for video composition based on the display range of the overhead view video determined by the display range determination unit 120 and the display mode.

カメラ映像割り当て決定部150は、表示範囲決定部120で決定された俯瞰映像の表示範囲、及び表示モードに基づき、適合度マップ記憶部140から各カメラの適合度マップを参照し、俯瞰映像の各部分を合成するために、カメラ選択決定部130で選択されたカメラの映像の重複部分について、いずれのカメラの映像を用いるかの割り当てを決定する。   The camera image assignment determination unit 150 refers to the fitness map of each camera from the fitness map storage unit 140 based on the display range and the display mode of the overhead image determined by the display range determination unit 120, and displays each of the overhead video images. In order to synthesize the parts, an assignment of which camera image to use is determined for the overlapping portion of the camera image selected by the camera selection determination unit 130.

入力映像選択部160は、映像合成装置100に接続されたカメラC1〜カメラCmの映像のうち、カメラ選択決定部130で映像合成に使用すると決定したカメラの組の映像を選択して映像合成部170に渡す。   The input video selection unit 160 selects a video of a set of cameras determined to be used for video synthesis by the camera selection determination unit 130 from the images of the cameras C1 to Cm connected to the video synthesis device 100, and the video synthesis unit To 170.

映像合成部170は、決定された俯瞰映像の表示範囲、表示モード、カメラ選択情報、及びカメラ映像割当情報に基づき、入力映像選択部160から受け取ったカメラ映像を用いて俯瞰映像を合成し、映像合成装置100に接続された表示部180に渡して表示する。なお、映像合成装置100の構成は図1に示した例に限られない。例えば、カメラC1〜Cm、表示部180は、映像合成装置100が備えるように構成されていてもよい。また、適合度マップ記憶部140は、映像合成装置100からアクセス可能な外部ストレージに設けられてもよい。   The video synthesis unit 170 synthesizes the overhead video using the camera video received from the input video selection unit 160 based on the determined display range of the overhead video, display mode, camera selection information, and camera video allocation information. The data is displayed on the display unit 180 connected to the synthesis apparatus 100. The configuration of the video composition device 100 is not limited to the example shown in FIG. For example, the cameras C1 to Cm and the display unit 180 may be configured to be included in the video composition device 100. The fitness map storage unit 140 may be provided in an external storage accessible from the video composition device 100.

上記のカメラ選択決定部130、及びカメラ映像割り当て決定部150の処理においては、適合度マップ記憶部140から各カメラの適合度マップが読み出して用いられる。適合度マップは、カメラ適合度データの一例であり、合成する俯瞰映像の各部分ごとに、どのカメラを用いるのが良いかの度合いを適合度値で定義したマップとして構成できる。ここで、合成される俯瞰映像の表示範囲は、例えば図2(a)に示すように、車両の周囲に定義される。なお、このときのカメラの視野は、例えば図2(b)に示す通りである。図2(b)に示す例では、各カメラの視野は隣接するカメラの視野と一部重なっている。そのため、各カメラの映像は隣接するカメラの映像と一部重なる領域を有することになる。   In the processes of the camera selection determination unit 130 and the camera image allocation determination unit 150, the fitness level map of each camera is read from the fitness level map storage unit 140 and used. The fitness map is an example of camera fitness data, and can be configured as a map in which the degree of which camera should be used is defined by the fitness value for each part of the overhead view video to be synthesized. Here, the display range of the bird's-eye view image to be synthesized is defined around the vehicle, for example, as shown in FIG. Note that the field of view of the camera at this time is, for example, as shown in FIG. In the example shown in FIG. 2B, the field of view of each camera partially overlaps the field of view of the adjacent camera. Therefore, the video of each camera has an area partially overlapping with the video of the adjacent camera.

表示範囲決定部は、入力情報に基づいて表示モードを決定し、カメラ適合度データは、表示モード毎にデータを有することが好ましい。カメラ選択決定部130は、表示範囲決定部が決定した表示モードに対応するカメラ適合度データを用いてカメラを選択して決定できる。また、カメラ映像割り当て決定部150は、表示範囲決定部120が決定した表示モードに対応するカメラ適合度データを用いて俯瞰映像の合成に割り当てることができる。   The display range determining unit determines the display mode based on the input information, and the camera suitability data preferably has data for each display mode. The camera selection determination unit 130 can select and determine a camera using the camera suitability data corresponding to the display mode determined by the display range determination unit. In addition, the camera video assignment determination unit 150 can assign the overhead image to the composition using the camera suitability data corresponding to the display mode determined by the display range determination unit 120.

これにより、カメラ適合度データを用いることにより、俯瞰映像の合成に適したカメラを選択できると共に、俯瞰映像の合成に適したカメラ映像を割り当てることができる。   Thus, by using the camera suitability data, it is possible to select a camera suitable for the synthesis of the overhead view video and to assign a camera video suitable for the synthesis of the overhead view video.

適合度データは、例えば、カメラの位置、方向、視野角などに基づき、合成する俯瞰映像の各部分を当該カメラの映像を用いて合成した場合の解像度、歪み、死角などが、当該表示モードの目的を満たすための要件に適合するように考慮して予め決定し、記憶しておく。なお、適合度データの値は、カメラの位置、方向、視野角等から自動的に計算されてもよいし、人手によるチューニングが可能であってもよい。   The fitness data is, for example, based on the position, direction, viewing angle, etc. of the camera, the resolution, distortion, blind spot, etc. when combining each part of the overhead view video to be synthesized using the video of the camera. It is determined in advance and stored so as to meet the requirements for satisfying the purpose. Note that the value of the fitness data may be automatically calculated from the position, direction, viewing angle, etc. of the camera, or may be manually tunable.

図3は、俯瞰映像を合成する領域をメッシュ状に分割し、分割された各部分をセグメントと定義し、各セグメントにセグメント名(S11、S12、・・・S1n、S21、S22、・・・、S2n、・・・、Sm1、・・・Smn)を割り当てた例である。   FIG. 3 divides the region where the bird's-eye view image is synthesized into a mesh shape, defines each divided portion as a segment, and defines a segment name (S11, S12,... S1n, S21, S22,...) For each segment. , S2n, ..., Sm1, ... Smn).

このときの適合度マップの定義例を図4に示す。各カメラ(ここでは、C1〜C8)について、適合度マップを定義するテーブルがリンクされている。(ただし、一部図を省略。)各テーブルでは、表示モード(M1、M3、・・・)ごとの適合度マップを定義している。具体的には、各セグメント(S11、S12、・・・、Smn)についての適合度値が定義されている。適合度値が高いものほど、その表示モードにおいて、そのセグメントを表示するのに、そのカメラの映像を使うことが適していることを示す。   A definition example of the fitness map at this time is shown in FIG. For each camera (here, C1 to C8), a table defining a fitness map is linked. (However, some drawings are omitted.) Each table defines a fitness map for each display mode (M1, M3,...). Specifically, fitness values for each segment (S11, S12,..., Smn) are defined. The higher the fitness value, the more suitable it is to use the video of the camera to display the segment in the display mode.

例えば、図4の例では、カメラC2の適合度値は、直進モード(M1)では、各セグメント(S11、S12、・・・、Smn)について、(80、80、70、60、50、40・・・)と定義されている。また、カメラC3の適合度値は、直進モード(M1)では、各セグメント(S11、S12、・・・、Smn)について、(50、70、100、100、100、100・・・)と定義されている。カメラC4の適合度値は、直進モード(M1)では、各セグメント(S11、S12、・・・、Smn)について、(20、30、40、50、60、70・・・)と定義されている。また、カメラC8の適合度値は、直進モード(M1)では、各セグメント(S11、S12、・・・、Smn)について、(0、0、0、0、0、0・・・)と定義されている。すなわち、図4の例では、直進モード(M1)では、セグメントS11はカメラC2、セグメントS12はカメラC2、セグメントS13はカメラC3、セグメントS14はカメラC3、セグメントS15はカメラC3、セグメントS16はカメラC3の映像を使うことが適していることを示している。なお、図4の適合度マップは一例である。   For example, in the example of FIG. 4, the fitness value of the camera C2 is (80, 80, 70, 60, 50, 40) for each segment (S11, S12,..., Smn) in the straight traveling mode (M1). ...) is defined. The fitness value of the camera C3 is defined as (50, 70, 100, 100, 100, 100 ...) for each segment (S11, S12, ..., Smn) in the straight-ahead mode (M1). Has been. The fitness value of the camera C4 is defined as (20, 30, 40, 50, 60, 70...) For each segment (S11, S12,..., Smn) in the straight traveling mode (M1). Yes. Further, the fitness value of the camera C8 is defined as (0, 0, 0, 0, 0, 0 ...) for each segment (S11, S12, ..., Smn) in the straight traveling mode (M1). Has been. That is, in the example of FIG. 4, in the straight mode (M1), the segment S11 is the camera C2, the segment S12 is the camera C2, the segment S13 is the camera C3, the segment S14 is the camera C3, the segment S15 is the camera C3, and the segment S16 is the camera C3. It is shown that it is suitable to use the video. Note that the fitness map in FIG. 4 is an example.

カメラ適合度データは、表示モード毎にデータを有し、第1の表示モードから第2の表示モードへ切り替わる中間的な第3の表示モードが決定された場合、第1の表示モードの適合度値に重み付けした値と第2の表示モードの適合度値に重み付けした値との平均値を中間的な第3の表示モードの適合度値として新たな適合度データが作成されてもよい。これにより、中間的なモードであっても対応可能となる。   The camera suitability data has data for each display mode, and when the intermediate third display mode for switching from the first display mode to the second display mode is determined, the suitability of the first display mode is determined. New fitness data may be created using an average value of a value weighted to the value and a value weighted to the fitness value of the second display mode as a fitness value of the intermediate third display mode. As a result, even an intermediate mode can be handled.

すなわち、図4は、表示モードごとに適合度マップを定義している例であるが、実際に適合度マップを利用する際には、複数の表示モードの適合度マップを重み付け合成して新たな適合度マップを作成し、それを利用してもよい。例えば、第1のモードから第2のモードへ切り替わる中間的な第3のモードが表示範囲決定部120で決定された場合、第1のモードの適合度値に重み付けした値と第2のモードの適合度値に重み付けした値との平均値を中間的な第3のモードの適合度値として新たな適合度マップを作成して利用してもよい。   That is, FIG. 4 is an example in which a fitness map is defined for each display mode. However, when the fitness map is actually used, a new fitness map is weighted and synthesized. A goodness-of-fit map may be created and used. For example, when an intermediate third mode for switching from the first mode to the second mode is determined by the display range determination unit 120, a value weighted to the fitness value of the first mode and the second mode A new fitness map may be created and used by using an average value of the weighted fitness values as the fitness value of the intermediate third mode.

具体例として、直進モードから左折モードへと切り替わる過程のモード(中間的なモード)の場合、例えば直進モード(M1)の適合度値に0.6の重み付けをした値と左折モード(M3)の適合度値に0.4の重み付けをした値との平均値を中間的なモードの適合度値とし、中間的なモードの適合度マップを作成して利用してもよい。   As a specific example, in the case of a mode (intermediate mode) in the process of switching from the straight-ahead mode to the left-turn mode, for example, a value obtained by weighting the fitness value of the straight-ahead mode (M1) with a weight of 0.6 and the left-turn mode (M3) An average value of the fitness value obtained by weighting 0.4 may be used as an intermediate mode fitness value, and an intermediate mode fitness map may be created and used.

以下、本発明の実施形態に係る映像合成装置100の動作について、図5のフローチャートに従って説明する。   Hereinafter, the operation of the video composition apparatus 100 according to the embodiment of the present invention will be described with reference to the flowchart of FIG.

まず、表示範囲決定部120は、入力情報受付部110で受付けた車両情報等の情報と、利用者指示入力情報に基づき、俯瞰映像の表示範囲、及び表示モードを予め定めた手順にしたがって決定する(ステップS501)。例えば、入力情報受付部110は、ドライバによるウインカ、シフト、ハンドル、アクセル、ブレーキなどの操作情報や、車両制御システムやカーナビゲーションシステム等からの情報に基づく車両情報として、直進、左折、右折、後退等の車両の進む方向を示す情報を受け取り、表示範囲決定部120は、前記方向に対応する表示モード(直進モード、左折モード、右折モード、後退モードのいずれか1つ)を決定することができる。   First, the display range determination unit 120 determines the display range and the display mode of the overhead view video according to a predetermined procedure based on information such as vehicle information received by the input information reception unit 110 and user instruction input information. (Step S501). For example, the input information accepting unit 110 performs straight, left, right, reverse as vehicle information based on operation information such as turn signals, shifts, steering wheels, accelerators, and brakes by a driver and information from a vehicle control system, a car navigation system, and the like. For example, the display range determination unit 120 can determine a display mode corresponding to the direction (any one of a straight-ahead mode, a left-turn mode, a right-turn mode, and a reverse mode). .

車両情報と表示モードを対応付けるデータを予め記録しておき、表示範囲決定部120は、このデータを用いて表示モードを決定することができる。例えば、表示範囲の候補を予め複数用意しておき、各表示範囲の候補について、その表示範囲が選択されるために車両情報が満たすべき条件を対応付けるデータを予め記録しておくことにより、表示範囲決定部120は、このデータを用いて表示範囲を決定することができる。更に、表示範囲決定部120は、入力情報受付部110で受付けた、画面上でのタッチパネル操作などによる利用者指示入力に基づき、表示範囲を任意に変更(移動、拡大、縮小など)できるように構成してもよい。   Data that associates the vehicle information with the display mode is recorded in advance, and the display range determination unit 120 can determine the display mode using this data. For example, a plurality of display range candidates are prepared in advance, and for each display range candidate, the display range is recorded in advance by associating data that matches the conditions that the vehicle information must satisfy in order to select the display range. The determination unit 120 can determine the display range using this data. Furthermore, the display range determination unit 120 can arbitrarily change (move, enlarge, reduce, etc.) the display range based on a user instruction input received by the input information receiving unit 110 through a touch panel operation on the screen. It may be configured.

次に、カメラ選択決定部130は、表示範囲決定部120で決定された俯瞰映像の表示範囲、及び表示モードに基づき、映像合成に用いる所定数のカメラの組を選択して決定する(ステップS502)。このカメラ選択決定処理の詳細については後述する。   Next, the camera selection determination unit 130 selects and determines a predetermined number of camera sets used for video composition based on the display range and the display mode of the overhead view video determined by the display range determination unit 120 (step S502). ). Details of the camera selection determination process will be described later.

次に、カメラ映像割り当て決定部150は、表示範囲決定部120で決定された俯瞰映像の表示範囲、及び表示モードに基づき、適合度マップ記憶部140から各カメラの適合度マップを参照し、俯瞰映像を合成するために、カメラ選択決定部130で選択されたカメラの映像の重複部分について、いずれのカメラの映像を用いるかの割り当てを決定する(ステップS503)。このカメラ映像割り当て決定処理の詳細については後述する。   Next, the camera image assignment determining unit 150 refers to the fitness map of each camera from the fitness map storage unit 140 based on the display range and the display mode of the overhead image determined by the display range determining unit 120, and performs a bird's-eye view. In order to synthesize the video, an assignment of which camera video to use is determined for the overlapping portion of the video of the camera selected by the camera selection determination unit 130 (step S503). Details of the camera video assignment determination process will be described later.

次に、入力映像選択部160は、映像合成装置100に接続されたカメラC1〜カメラCmの映像のうち、カメラ選択決定部130で映像合成に使用すると決定したカメラの組の映像を選択して映像合成部170に渡す(ステップS504)。   Next, the input video selection unit 160 selects a video of a set of cameras determined to be used for video synthesis by the camera selection determination unit 130 from the images of the cameras C1 to Cm connected to the video synthesis device 100. It is passed to the video composition unit 170 (step S504).

次に、映像合成部170は、決定された俯瞰映像の表示範囲、表示モード、カメラ選択情報、及びカメラ映像割当情報に基づき、入力映像選択部160から受け取ったカメラ映像を用いて俯瞰映像を合成し、映像合成装置100に接続された表示部190に渡して表示する(ステップS505)。俯瞰映像は、例えば、車載システムが備えるディスプレイに表示される。   Next, the video synthesis unit 170 synthesizes the overhead video using the camera video received from the input video selection unit 160 based on the determined overhead view video display range, display mode, camera selection information, and camera video allocation information. Then, it is transferred to the display unit 190 connected to the video composition apparatus 100 and displayed (step S505). The overhead view video is displayed on, for example, a display included in the in-vehicle system.

次に、映像合成部170は、処理を継続するかどうか判断し(ステップS506)、継続する場合はステップS501に戻って処理を繰り返す。   Next, the video composition unit 170 determines whether or not to continue the process (step S506), and if so, returns to step S501 and repeats the process.

以上の処理を繰り返すことにより、利用者の指示入力、及び車両状態の入力情報に基づいて決定された俯瞰映像の表示範囲、及び表示モードに従って、適切なカメラからの入力映像が選択され、その入力映像に基づいて俯瞰映像が合成され、表示される。
(カメラ選択決定処理)
本実施形態では、カメラ選択決定部130は、カメラの映像の利用が適している度合いである適合度値を俯瞰映像の各部分毎に各カメラについて定めたカメラ適合度データを記憶するカメラ適合度データ記憶部にアクセス可能である。カメラ選択決定部130は、俯瞰映像の表示範囲における各部分の適合度値を、カメラ適合度データ記憶部から読み出して各カメラ毎に表示範囲における適合度値を計算し、計算して得られる表示範囲における適合度値が高いカメラから順に所定数のカメラを、俯瞰映像の合成に使用するカメラとして選択して決定することができる。
By repeating the above processing, an input video from an appropriate camera is selected and input according to the user's instruction input and the display range of the overhead view video determined based on the vehicle state input information and the display mode. A bird's-eye view video is synthesized and displayed based on the video.
(Camera selection decision process)
In the present embodiment, the camera selection determination unit 130 stores camera fitness data in which a fitness value, which is a degree suitable for use of a camera image, is determined for each camera for each part of the overhead view video. The data storage unit can be accessed. The camera selection determining unit 130 reads out the fitness value of each part in the display range of the overhead view video from the camera fitness data storage unit, calculates the fitness value in the display range for each camera, and displays the calculated display It is possible to select and determine a predetermined number of cameras in order from the camera having the highest fitness value in the range as the camera used for the synthesis of the overhead view video.

これにより、適合度値の加算値を用いてカメラを選択するため、俯瞰映像の合成に使用するカメラをより最適に選択できる。   Thereby, since the camera is selected using the addition value of the fitness values, it is possible to more optimally select the camera used for the synthesis of the overhead view video.

次に、俯瞰映像の合成に使用するカメラの組の選択を決定するカメラ選択決定処理(ステップS502)の詳細について、図6のフローチャートに従って説明する。   Next, details of the camera selection determination process (step S502) for determining the selection of a camera group used for the composition of the overhead view video will be described with reference to the flowchart of FIG.

予め、全てのカメラについて、それぞれの「表示範囲における適合度値」を一時的に記録するためのバッファを用意しておく。   In advance, a buffer for temporarily recording each “fitness value in the display range” is prepared for all cameras.

まず、カメラ選択決定部130は、選択候補とするカメラを1つ選択する(ステップS601)。   First, the camera selection determination unit 130 selects one camera as a selection candidate (step S601).

次に、カメラ選択決定部130は、選択したカメラについて、適合度マップを用意する(ステップS602)。   Next, the camera selection determination unit 130 prepares a fitness map for the selected camera (step S602).

次に、カメラ選択決定部130は、用意した適合度マップの俯瞰映像の表示範囲に含まれる部分の当該選択したカメラについての適合度値を全て加算し、得られた適合度値の合計値を前記バッファに記録する(ステップS603)。   Next, the camera selection determination unit 130 adds all the fitness values for the selected camera in the portion included in the display range of the overhead view video of the prepared fitness map, and calculates the total value of the obtained fitness values. Recording in the buffer (step S603).

次に、カメラ選択決定部130は、ステップS601〜S603の処理を全てのカメラについて順次繰り返し、当該ステップS601〜S603の処理が未処理のカメラが残っているか否か判定する(ステップS604)。   Next, the camera selection determination unit 130 sequentially repeats the processes in steps S601 to S603 for all the cameras, and determines whether or not there are any unprocessed cameras remaining in the processes in steps S601 to S603 (step S604).

ステップS604において、未処理のカメラが残っていると判定された場合は、カメラ選択決定部130は、ステップ601に処理を戻して新たなカメラを選択してステップS601〜S603の処理を繰り返す。   If it is determined in step S604 that an unprocessed camera remains, the camera selection determination unit 130 returns to the process in step 601, selects a new camera, and repeats the processes in steps S601 to S603.

ステップS604において、全てのカメラについて処理が終了したと判定された場合、カメラ選択決定部130は、前記バッファに記録された適合度値の加算値が高いものから順にカメラC1〜Cmから、既定のカメラ台数以下となるように、映像合成に使用する所定数のカメラの組を選択して決定する(ステップS605)。ここでは、一例として図8(a)に示す表示範囲Sについて、カメラC2、カメラC3、カメラC4、カメラC8のカメラの組が選択され、決定されたとする。   If it is determined in step S604 that the processing has been completed for all the cameras, the camera selection determination unit 130 determines the predetermined values from the cameras C1 to Cm in descending order of the addition value of the fitness values recorded in the buffer. A predetermined number of camera groups used for video composition is selected and determined so as to be equal to or less than the number of cameras (step S605). Here, as an example, for the display range S shown in FIG. 8A, it is assumed that a camera set of the camera C2, the camera C3, the camera C4, and the camera C8 is selected and determined.

なお、図6に示す例では、「表示範囲における適合度値」として、俯瞰映像の表示範囲に含まれる部分の適合度値の合計値を用いているが、表示範囲における適合度値はこれに限定されない。例えば、表示範囲に含まれる部分の適合度値の平均値、最大値、最小値、あるいは、あらかじめ定めた閾値を超える部分の面積もしくはセグメント数などを、表示範囲におけるカメラの適合度として用いることができる。
(カメラ映像割り当て決定処理)
本実施形態では、カメラ映像割り当て決定部150は、カメラの映像の利用が適している度合いである適合度値を俯瞰映像の各部分毎に各カメラについて定めたカメラ適合度データを記憶するカメラ適合度データ記憶部にアクセス可能である。カメラ映像割り当て決定部150は、カメラ選択決定部が決定した所定数のカメラの映像のうち、前記俯瞰映像における各カメラの映像の重複部分についての適合度値の値が最も高いカメラの映像を、その重複部分の俯瞰映像の合成に割り当てることができる。
In the example shown in FIG. 6, the total value of the fitness values of the parts included in the display range of the overhead view video is used as the “fitness value in the display range”. It is not limited. For example, the average value, the maximum value, the minimum value, or the area or the number of segments of a part exceeding a predetermined threshold may be used as the degree of fitness of the camera in the display range. it can.
(Camera video assignment decision processing)
In the present embodiment, the camera image assignment determination unit 150 stores camera fitness data in which the fitness value, which is the degree to which the video of the camera is suitable, is determined for each camera for each part of the overhead video. The data storage unit can be accessed. The camera image allocation determining unit 150 selects a camera image having the highest fitness value for the overlapping portion of the video images of the cameras in the overhead view image among the predetermined number of camera images determined by the camera selection determining unit. It can be assigned to the synthesis of the overhead view video of the overlapping portion.

これにより、適合度値の最も高いカメラの映像を割り当てるため、効率よくカメラを使用して最適な俯瞰映像を合成することができる。   Thereby, since the video of the camera with the highest fitness value is assigned, the optimal overhead view video can be synthesized efficiently using the camera.

次に、カメラ映像割当決定処理(ステップS503)の詳細について、図7のフローチャートに従って説明する。   Next, details of the camera video assignment determination process (step S503) will be described with reference to the flowchart of FIG.

まず、カメラ映像割り当て決定部150は、俯瞰映像の表示範囲Sに含まれる各セグメント(S11〜Smn)について、映像を用いるカメラとその適合度値を記録できるバッファを用意し、内容をクリアしておく(ステップS701)。本例では、選択されたカメラC2、カメラC3、カメラC4、カメラC8のカメラについて、各セグメントのバッファが用意される。   First, for each segment (S11 to Smn) included in the overhead video display range S, the camera video assignment determination unit 150 prepares a camera that uses video and a buffer that can record the fitness value, and clears the contents. (Step S701). In this example, a buffer for each segment is prepared for the selected cameras C2, C3, C4, and C8.

次に、カメラ映像割り当て決定部150は、セグメントを1つ選択する(ステップS702)。ここでは、まずセグメントS11が選択されたとする。   Next, the camera video assignment determining unit 150 selects one segment (step S702). Here, it is assumed that the segment S11 is first selected.

次に、カメラ映像割り当て決定部150は、カメラ選択決定部130が決定したカメラのうち、1つのカメラを選択する(ステップS703)。ここでは、まずカメラC2が選択されたとする。   Next, the camera video assignment determining unit 150 selects one camera among the cameras determined by the camera selection determining unit 130 (step S703). Here, it is assumed that the camera C2 is first selected.

カメラ映像割り当て決定部150は、ステップS702において選択したセグメントについて、ステップ701で用意したバッファに記録されているカメラの適合度値よりも、現在選択したカメラの適合度マップにおける当該セグメントについての適合度値が高いか否かを判定する(ステップS704)。ここでは、まずセグメントS11について判定される。なお、バッファがクリアされている場合は、そのカメラとその適合度値がそのまま記録される。   The camera image allocation determination unit 150 uses the fitness value for the segment in the fitness map of the currently selected camera, rather than the fitness value of the camera recorded in the buffer prepared in step 701 for the segment selected in step S702. It is determined whether or not the value is high (step S704). Here, the segment S11 is first determined. When the buffer is cleared, the camera and its fitness value are recorded as they are.

ステップS704において、適合度値が高い場合、カメラ映像割り当て決定部150は、当該カメラ名とその適合度値を当該セグメントのバッファに記録する(ステップS705)。ここでは、まずセグメントS11のバッファにカメラC2とその適合度値「80」が記録される。一方、ステップS704において、適合度値が高くない場合、カメラ映像割り当て決定部150は、ステップS706に処理を進める。   If the fitness value is high in step S704, the camera video assignment determining unit 150 records the camera name and the fitness value in the segment buffer (step S705). Here, first, the camera C2 and its fitness value “80” are recorded in the buffer of the segment S11. On the other hand, if the fitness value is not high in step S704, the camera video assignment determination unit 150 proceeds with the process to step S706.

カメラ映像割り当て決定部150は、ステップS706において、選択決定された全てのカメラについて処理が終わっていない場合はステップS703に処理を戻し、終わっている場合は次のステップS707に処理を進める。   In step S706, the camera video assignment determination unit 150 returns the process to step S703 if the process has not been completed for all the cameras determined to be selected, and proceeds to the next step S707 if it has been completed.

カメラ映像割り当て決定部150は、ステップS707では、全てのセグメントについて処理が終わっていない場合はステップS702に処理を戻して、セグメントS11の次のセグメントを1つ選択して処理を繰り返し、終わっている場合は次のステップS708に処理を進める。   In step S707, the camera video assignment determination unit 150 returns to the process in step S702 if all the segments have not been processed, selects one segment next to the segment S11, and repeats the process. In that case, the process proceeds to the next step S708.

すなわち、セグメントS11から順次セグメントSmnまでのそれぞれのセグメントについて、図4に示すカメラ適合度マップからカメラC2、カメラC3、カメラC4、カメラC8の適合度値が順次読出されて、それらが比較された結果、適合度値が高いカメラとその適合度値がそれぞれのセグメントのバッファに更新記録される。   That is, for each segment from segment S11 to segment Smn sequentially, the fitness values of camera C2, camera C3, camera C4, and camera C8 are sequentially read from the camera fitness map shown in FIG. 4 and compared. As a result, the camera having a high fitness value and the fitness value are updated and recorded in the buffer of each segment.

例えば、図4の例では、セグメントS13について、直進モード(M1)のとき、まず、カメラC2と適合度値「70」がバッファに記録される。次に、カメラC3の適合度値「100」が読み出され、カメラC2の適合度値「70」とカメラC3の適合度値「100」とではカメラC3の適合度値の方が高いため、カメラC3と適合度値「100」がバッファに更新記録される。次に、カメラC4の適合度値「40」が読み出され、カメラC3の適合度値「100」とカメラC4の適合度値「40」とでは、カメラC3の適合度値の方が高いため、更新されない。最後に、カメラC3の適合度値「100」とカメラC8の適合度値「0」とでは、カメラC3の適合度値の方が高いため、更新されない。すなわち、セグメントC13のバッファには、カメラC3と適合度値「100」が記録される。   For example, in the example of FIG. 4, when the segment S13 is in the straight traveling mode (M1), first, the camera C2 and the fitness value “70” are recorded in the buffer. Next, the fitness value “100” of the camera C3 is read. Since the fitness value “70” of the camera C2 and the fitness value “100” of the camera C3 are higher, the fitness value of the camera C3 is higher. The camera C3 and the fitness value “100” are updated and recorded in the buffer. Next, the fitness value “40” of the camera C4 is read, and the fitness value of the camera C3 and the fitness value “40” of the camera C4 are higher than the fitness value of the camera C3. , Not updated. Finally, the fitness value “100” of the camera C3 and the fitness value “0” of the camera C8 are not updated because the fitness value of the camera C3 is higher. That is, the camera C3 and the fitness value “100” are recorded in the buffer of the segment C13.

カメラ映像割り当て決定部150は、ステップ708の時点で、バッファに記録されている各セグメントのバッファに記録された適合度値が最も高いカメラの映像を、当該セグメントの合成に使用するカメラの映像の割当として決定する。   At step 708, the camera video assignment determination unit 150 uses the video of the camera having the highest fitness value recorded in the buffer of each segment recorded in the buffer as the video of the camera used for combining the segments. Determine as an assignment.

以上により、俯瞰映像表示領域の各セグメントを合成するために、どのカメラの映像を使うかを、自動的かつ適切に決定することができる。   As described above, it is possible to automatically and appropriately determine which camera video is used to synthesize each segment of the overhead video display area.

すなわち、上記のような手順によれば、図4のような適合度マップが定義されており、映像合成に用いるカメラ台数は最大4台と決められており、図8(a)のように表示範囲が決定され、表示モードが左折モード(M3)の場合、カメラC2、C3、C4、C8が俯瞰映像合成に使用するカメラとして選択され、図8(b)のようにカメラ映像割当が決定される。   That is, according to the procedure as described above, the fitness map as shown in FIG. 4 is defined, and the maximum number of cameras used for video composition is determined to be 4 and displayed as shown in FIG. When the range is determined and the display mode is the left turn mode (M3), the cameras C2, C3, C4, and C8 are selected as the cameras used for the overhead video composition, and the camera video allocation is determined as shown in FIG. The

なお、例えば図9(a)のように表示範囲が決定され、表示モードが直進モード(M1)の場合は、例えばカメラC1、C3、C5、C7が俯瞰映像の合成に使用するカメラとして選択され、それぞれのセグメントの適合度値が最も高いカメラが図9(b)のようにカメラ映像割当として決定される場合もある。   For example, when the display range is determined as shown in FIG. 9A and the display mode is the straight-ahead mode (M1), for example, the cameras C1, C3, C5, and C7 are selected as the cameras used for the synthesis of the overhead view video. The camera having the highest fitness value of each segment may be determined as camera video allocation as shown in FIG. 9B.

以上説明したように、本発明によれば、複数のカメラ映像から1つの俯瞰映像を合成する装置において、俯瞰映像の合成に使用するカメラの映像を効率よく割り当てることにより、使用するカメラの数が増えても、映像の解像度が低下しないように、自動的に最適な俯瞰映像が表示されるようにすることができる。   As described above, according to the present invention, in an apparatus for synthesizing one overhead image from a plurality of camera images, the number of cameras to be used can be reduced by efficiently allocating the images of the cameras used for the synthesis of the overhead image. It is possible to automatically display an optimum overhead view image so that the resolution of the image does not decrease even if the number increases.

上記実施形態で説明した構成は、単に具体例を示すものであり、本発明の技術的範囲を制限するものではない。本発明の効果を奏する範囲において、任意の構成を採用することが可能である。例えば、カメラ選択決定部130が適合度マップを使わずにカメラを選択決定してもよい。また、カメラ映像割り当て決定部150が適合度マップを使わずに割り当てを決定してもよい。   The configuration described in the above embodiment merely shows a specific example, and does not limit the technical scope of the present invention. Any configuration can be employed within the scope of the effects of the present invention. For example, the camera selection determination unit 130 may select and determine a camera without using the fitness map. Further, the camera video assignment determination unit 150 may determine the assignment without using the fitness map.

例えば、適合度マップをあらかじめ用意するかわりに、各カメラの設置位置および方向、視野角などから、合成する俯瞰映像の各部分もしくは各画素における当該カメラの適合度値を随時計算し、その値をカメラ選択決定、もしくはカメラ映像割当決定に用いてもよい。この場合、適合度マップをあらかじめ用意する必要が無くなり、カメラ位置や方向の変更に対応しやすくなる反面、適合度マップを使う方法と比較して、処理量が多くなったり、表示モードごとの詳細なチューニングが難しくなる可能性がある。   For example, instead of preparing a fitness map in advance, calculate the fitness value of the camera for each part or each pixel of the overhead view image to be synthesized from the installation position and direction of each camera, the viewing angle, etc. You may use for camera selection determination or camera image allocation determination. In this case, there is no need to prepare a fitness map in advance, which makes it easier to respond to changes in the camera position and orientation, but the processing amount is increased compared to the method using the fitness map, and details for each display mode are required. Tuning can be difficult.

なお、本実施形態では車載システムに適用した例を説明したが、例えば、航空機や船舶などへの搭載システム、建物などの監視システムのほか、複数のカメラ映像(実時間映像または録画映像)を入力として映像を合成し、表示や記録を行う様々なシステムに適用することができる。   In addition, although this embodiment demonstrated the example applied to the vehicle-mounted system, for example, in addition to the installation system on an airplane or a ship, the monitoring system of a building, etc., a plurality of camera videos (real-time video or recorded video) are input. Can be applied to various systems that synthesize and display and record video.

なお、本発明の実施形態は、上述した実施形態を実現するソフトウェアのプログラム(実施の形態では図に示すフロー図に対応したプログラム)が装置に供給され、その装置のコンピュータが、供給されたプログラムを読出して、実行することによっても達成せれる場合を含む。したがって、本実施形態で説明した機能処理をコンピュータで実現するために、コンピュータにインストールされるプログラム自体も本発明の一実施形態である。つまり、本発明の機能処理を実現させるためのプログラムも、実施形態の一側面に含まれる。また、当該プログラムを記録した媒体も、実施形態の一側面に含まれる。   In the embodiment of the present invention, a software program that realizes the above-described embodiment (in the embodiment, a program corresponding to the flowchart shown in the figure) is supplied to the apparatus, and the computer of the apparatus supplies the program It is also possible to achieve this by reading and executing. Therefore, in order to realize the functional processing described in this embodiment by a computer, the program itself installed in the computer is also an embodiment of the present invention. That is, a program for realizing the functional processing of the present invention is also included in one aspect of the embodiment. A medium storing the program is also included in one aspect of the embodiment.

100 映像合成装置
110 入力情報受付部
120 表示範囲決定部
130 カメラ選択決定部
140 適合度マップ記憶部
150 カメラ映像割り当て決定部
160 入力映像選択部160
170 映像合成部170
180 表示部
C1〜Cm カメラ
DESCRIPTION OF SYMBOLS 100 Image composition apparatus 110 Input information reception part 120 Display range determination part 130 Camera selection determination part 140 Conformity map memory | storage part 150 Camera image allocation determination part 160 Input image selection part 160
170 Video composition unit 170
180 Display C1-Cm Camera

Claims (6)

複数のカメラの映像から1つの俯瞰映像を合成する映像合成装置であって、
入力情報を受付ける入力情報受付部と、
前記入力情報受付部が受付けた入力情報に基づいて俯瞰映像の表示範囲を決定する表示範囲決定部と、
前記表示範囲決定部が決定した俯瞰映像の表示範囲に基づき、当該表示範囲の俯瞰映像の合成に用いる映像を撮影する所定数のカメラを選択して決定するカメラ選択決定部と、
前記カメラ選択決定部が決定した所定数のカメラの映像における重複部分について、いずれのカメラの映像を割り当てるかを決定するカメラ映像割り当て決定部と、
前記カメラ映像割り当て決定部の割り当てに基づいて、前記カメラ選択決定部が決定した所定数のカメラによって撮影された映像を用いて、前記俯瞰映像を合成して出力する映像合成部とを備え、
前記カメラ選択決定部は、
カメラの映像の利用が適している度合いである適合度値を前記俯瞰映像の各部分毎に各カメラについて定めたカメラ適合度データを記憶するカメラ適合度データ記憶部にアクセス可能であり、
前記俯瞰映像の表示範囲における各部分の適合度値を、前記カメラ適合度データ記憶部から読み出して各カメラ毎に表示範囲における適合度値を計算し、計算して得られる、表示範囲における適合度値が高いカメラから順に所定数のカメラを、前記俯瞰映像の合成に使用するカメラとして選択して決定する、映像合成装置。
A video composition device that synthesizes a single bird's-eye view video from a plurality of camera images,
An input information receiving unit for receiving input information;
A display range determination unit that determines a display range of the overhead view video based on the input information received by the input information reception unit;
A camera selection determining unit that selects and determines a predetermined number of cameras that shoot a video used to synthesize an overhead video of the display range based on the display range of the overhead video determined by the display range determination unit;
A camera video assignment determining unit that determines which camera video is to be assigned to overlapping portions in a predetermined number of camera videos determined by the camera selection determining unit;
A video synthesis unit that synthesizes and outputs the overhead view video using videos taken by a predetermined number of cameras determined by the camera selection determination unit based on the allocation of the camera video allocation determination unit;
The camera selection determination unit
Access to a camera fitness data storage unit that stores camera fitness data determined for each camera for each part of the bird's-eye view video, which is a degree of suitability for use of the camera video,
The fitness value in the display range obtained by calculating the fitness value in the display range for each camera by reading out the fitness value of each part in the display range of the overhead view video from the camera fitness data storage unit. A video composition device that selects and determines a predetermined number of cameras in order from the camera with the highest value as a camera to be used for composition of the overhead view video.
前記カメラ選択決定部は、前記俯瞰像を合成する領域を分割したセグメントそれぞれについて、前記適合値を計算し、前記俯瞰像の表示範囲に含まれるセグメントの適合値を用いて、前記俯瞰映像の合成に使用するカメラを選択して決定する、請求項1に記載の映像合成装置。 The camera selection decision unit, for each segment obtained by dividing an area for synthesizing the overhead Film image, calculates the fitness value, using the fitness values of segments included in the display range of the overhead Film image, wherein The video composition apparatus according to claim 1, wherein a camera to be used for composition of the overhead view video is selected and determined. 前記カメラ映像割り当て決定部は、
カメラの映像の利用が適している度合いである適合度値を前記俯瞰映像の各部分毎に各カメラについて定めたカメラ適合度データを記憶するカメラ適合度データ記憶部にアクセス可能であり、
前記カメラ選択決定部が決定した所定数のカメラの映像のうち、前記俯瞰映像における各カメラの映像の重複部分についての適合度値の値が最も高いカメラの映像の重複部分を、その重複部分の俯瞰映像の合成に割り当てる、請求項1に記載の映像合成装置。
The camera image assignment determination unit
Access to a camera fitness data storage unit that stores camera fitness data determined for each camera for each part of the bird's-eye view video, which is a degree of suitability for use of the camera video,
Of the predetermined number of camera images determined by the camera selection determining unit, the overlapping portion of the video of the camera having the highest fitness value for the overlapping portion of the video of each camera in the overhead view image is The video composition apparatus according to claim 1, which is assigned to the synthesis of the overhead view video.
前記表示範囲決定部は、
前記入力情報受付部が受付けた入力情報に基づいて、表示モードを決定し、
前記カメラ適合度データは、表示モード毎にデータを有し、
前記カメラ選択決定部は、前記表示範囲決定部が決定した表示モードに対応するカメラ適合度データを用いてカメラを選択して決定し、又は前記カメラ映像割り当て決定部は、前記表示範囲決定部が決定した表示モードに対応するカメラ適合度データを用いて俯瞰映像の合成に割り当てる、請求項2又は3に記載の映像合成装置。
The display range determination unit
Based on the input information received by the input information receiving unit, determine the display mode,
The camera suitability data has data for each display mode,
The camera selection determination unit selects and determines a camera using camera suitability data corresponding to the display mode determined by the display range determination unit, or the camera image allocation determination unit includes the display range determination unit. The video composition device according to claim 2 or 3, wherein the camera composition data corresponding to the determined display mode is used to synthesize the overhead video.
前記カメラ適合度データは、表示モード毎にデータを有し、第1の表示モードから第2の表示モードへ切り替わる中間的な第3の表示モードが存在する場合、前記第1の表示モードの適合度値に重み付けした値と前記第2の表示モードの適合度値に重み付けした値との平均値を中間的な第3の表示モードの適合度値として新たな適合度データが作成される、請求項4に記載の映像合成装置。   The camera suitability data has data for each display mode, and when there is an intermediate third display mode for switching from the first display mode to the second display mode, the conformity of the first display mode is present. The new fitness data is created by using an average value of a value weighted to the degree value and a value weighted to the fitness value of the second display mode as an intermediate fitness value of the third display mode. Item 5. The video composition device according to Item 4. 複数のカメラの映像から1つの俯瞰映像を合成する映像合成プログラムであって、
コンピュータに、
入力情報を受付ける入力情報受付ステップと、
前記入力情報受付ステップで受付けた入力情報に基づいて俯瞰映像の表示範囲を決定する表示範囲決定ステップと、
前記表示範囲決定ステップで決定した俯瞰映像の表示範囲に基づき、当該表示範囲の俯瞰映像の合成に用いる映像を撮影する所定数のカメラを選択して決定するカメラ選択決定ステップと、
前記カメラ選択決定ステップで決定した所定数のカメラの映像における重複部分について、いずれのカメラの映像を割り当てるかを決定するカメラ映像割り当て決定ステップと、
前記カメラ映像割り当てステップでの割り当てに基づいて、前記カメラ選択決定ステップで決定した所定数のカメラによって撮影された映像を用いて、前記俯瞰映像を合成して表示する映像合成ステップとを実行させ、
前記カメラ選択決定ステップは、
カメラの映像の利用が適している度合いである適合度値を前記俯瞰映像の各部分毎に各カメラについて定めたカメラ適合度データを記憶するカメラ適合度データ記憶部にアクセスし、
前記俯瞰映像の表示範囲における各部分の適合度値を、前記カメラ適合度データ記憶部から読み出して各カメラ毎に表示範囲における適合度値を計算し、計算して得られる、表示範囲における適合度値が高いカメラから順に所定数のカメラを、前記俯瞰映像の合成に使用するカメラとして選択して決定する処理を含む、映像合成プログラム。
A video composition program for synthesizing a single bird's-eye view video from a plurality of camera images,
On the computer,
An input information receiving step for receiving input information;
A display range determination step for determining a display range of the overhead view video based on the input information received in the input information reception step;
Based on the display range of the overhead view video determined in the display range determination step, a camera selection determination step of selecting and determining a predetermined number of cameras for shooting the video used for the synthesis of the overhead view video of the display range;
Camera video assignment determination step for determining which camera video to be assigned to overlapping portions in a predetermined number of camera videos determined in the camera selection determination step;
Based on the allocation in the camera video allocation step, using the video captured by the predetermined number of cameras determined in the camera selection determination step, to perform a video synthesis step of combining and displaying the overhead view video,
The camera selection determination step includes
Access the camera fitness data storage unit that stores the camera fitness data determined for each camera for each part of the overhead view video, a fitness value that is a degree that the use of the camera video is suitable,
The fitness value in the display range obtained by calculating the fitness value in the display range for each camera by reading out the fitness value of each part in the display range of the overhead view video from the camera fitness data storage unit. A video synthesizing program including processing for selecting and determining a predetermined number of cameras in order from the camera with the highest value as a camera to be used for synthesizing the overhead view video.
JP2010025401A 2010-02-08 2010-02-08 Video composition apparatus and video composition program Expired - Fee Related JP5521599B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010025401A JP5521599B2 (en) 2010-02-08 2010-02-08 Video composition apparatus and video composition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010025401A JP5521599B2 (en) 2010-02-08 2010-02-08 Video composition apparatus and video composition program

Publications (2)

Publication Number Publication Date
JP2011166351A JP2011166351A (en) 2011-08-25
JP5521599B2 true JP5521599B2 (en) 2014-06-18

Family

ID=44596541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010025401A Expired - Fee Related JP5521599B2 (en) 2010-02-08 2010-02-08 Video composition apparatus and video composition program

Country Status (1)

Country Link
JP (1) JP5521599B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6032141B2 (en) * 2013-07-02 2016-11-24 株式会社デンソー Travel road marking detection device and travel road marking detection method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100438623C (en) * 1999-04-16 2008-11-26 松下电器产业株式会社 Image processing device and monitoring system
JP2003191809A (en) * 2001-12-26 2003-07-09 Toyota Central Res & Dev Lab Inc Vehicle surroundings displaying device
JP4647975B2 (en) * 2004-11-17 2011-03-09 オリンパス株式会社 Image generation device

Also Published As

Publication number Publication date
JP2011166351A (en) 2011-08-25

Similar Documents

Publication Publication Date Title
JP5644200B2 (en) Parking assistance system
US20140121899A1 (en) Apparatus and method for controlling the display of an image on a multi-function mirror
JP4765649B2 (en) VEHICLE VIDEO PROCESSING DEVICE, VEHICLE PERIPHERAL MONITORING SYSTEM, AND VIDEO PROCESSING METHOD
JP4976685B2 (en) Image processing device
WO2014068856A1 (en) Image generation device and image generation program product
JP4560716B2 (en) Vehicle periphery monitoring system
US8896699B2 (en) Image synthesis device
EP3115803B1 (en) Semiconductor device, control system and observation method
US10902622B2 (en) Method and device for generating a view around a vehicle for a vehicle
JP2015097335A (en) Bird's-eye image generating apparatus
JPWO2009078056A1 (en) Moving object detection apparatus and moving object detection program
JP5064201B2 (en) Image display system and camera output control method
US20200388005A1 (en) Enhanced rendering of surround view images
WO2011118199A1 (en) Display switching device
US11868801B2 (en) Priority based management of access to shared resources
WO2017081717A1 (en) Image generation system and image generation method
KR101045143B1 (en) top View image revision system and the Method
JP5521599B2 (en) Video composition apparatus and video composition program
JP2020052671A (en) Display control device, vehicle, and display control method
WO2018096792A1 (en) Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
JP7239050B2 (en) Image processing device, image processing system, image processing method, and image processing program
KR20160051129A (en) Apparatus and method for generating vehicle around-view video
JP6464579B2 (en) Overhead image generation device
JP4992747B2 (en) Parking assistance device and parking assistance method
WO2018055873A1 (en) Overhead view video image generation device, overhead view video image generation system, overhead view video image generation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130430

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130701

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R150 Certificate of patent or registration of utility model

Ref document number: 5521599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees