JP2020010111A - Display device, imaging device, and control method, program, and imaging system for the devices - Google Patents
Display device, imaging device, and control method, program, and imaging system for the devices Download PDFInfo
- Publication number
- JP2020010111A JP2020010111A JP2018127645A JP2018127645A JP2020010111A JP 2020010111 A JP2020010111 A JP 2020010111A JP 2018127645 A JP2018127645 A JP 2018127645A JP 2018127645 A JP2018127645 A JP 2018127645A JP 2020010111 A JP2020010111 A JP 2020010111A
- Authority
- JP
- Japan
- Prior art keywords
- exposure
- image
- unit
- omnidirectional
- exposure control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Cameras In General (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
Description
本発明は、全方位映像を扱う表示装置、撮像装置、及びこれらの制御方法、プログラム、撮像システムに関する。 The present invention relates to a display device that handles omnidirectional images, an imaging device, and a control method, a program, and an imaging system thereof.
昨今、パノラマ画像や360°全方位を撮像する技術が注目されている。この技術に係る撮像装置は、広範囲の画角をカバーできるように、複数のセンサを配置したり、撮像装置そのものを移動させたりして、取得した複数の映像を合成して広い画角の映像を生成する。得られた映像は、例えば、無線技術などを用いて、撮像装置とは別の端末等の表示装置に転送されて表示される。転送された映像を表示装置で表示する際、広範囲の画角のままでは縮小率が高すぎて見難いことが予想される。そこで、多くの表示装置は、ユーザ視聴用の画角となるように、任意に拡大・縮小表示ができるユーザーインターフェースを備える。 Recently, techniques for capturing panoramic images and 360 ° omnidirectional images have attracted attention. The imaging device according to this technology arranges a plurality of sensors or moves the imaging device itself so as to cover a wide angle of view, and synthesizes a plurality of acquired images to form a wide-angle image. Generate The obtained video is transferred to a display device such as a terminal different from the imaging device and displayed using, for example, wireless technology. When displaying the transferred video on the display device, it is expected that the reduction ratio is too high and the viewing is difficult if the angle of view is wide. Therefore, many display devices are provided with a user interface that can be arbitrarily enlarged or reduced so as to have an angle of view for user viewing.
上記のように、表示装置において、ユーザ視聴用の画角を撮像場所から離れた場所で視聴する際、ユーザは、表示されていない画角の露出状況を知ることができない。ここで、視聴していない画角に太陽光などの非常に眩しい光が入ったことを検出し、自動的に露出制御を変更する技術が知られている(特許文献1)。しかし、露出が自動的に制御されるので、全方位映像の全画角をユーザの望む露出状態にすることは困難である。 As described above, when viewing the angle of view for user viewing on the display device at a location distant from the imaging location, the user cannot know the exposure status of the angle of view that is not displayed. Here, there is known a technique of detecting that extremely dazzling light such as sunlight enters an angle of view that is not viewed and automatically changing exposure control (Patent Document 1). However, since the exposure is automatically controlled, it is difficult to set the full angle of view of the omnidirectional image to the exposure state desired by the user.
一方、ユーザ視聴用の画角の映像と、全体の画角を縮小表示した映像とを同時に表示する利用形態もある。この利用形態において、ユーザ視聴用の画角にぼかし等の何らかの描画エフェクトを重畳した際、その描画エフェクトを、全体の画角上にも反映させることで、ユーザが画像の編集を行いやすくする技術も知られている(特許文献2)。 On the other hand, there is also a usage form in which an image having an angle of view for user viewing and an image obtained by reducing and displaying the entire angle of view are simultaneously displayed. In this use mode, a technology that makes it easy for a user to edit an image by superimposing some drawing effect such as blurring on an angle of view for user viewing and reflecting the drawing effect on the entire angle of view. Is also known (Patent Document 2).
ところで、表示装置には、視聴している画角の露出をユーザが任意で変更できるものがある。このような表示装置においては、ユーザ操作に応じた露出の変更により、ユーザにとって見えない画角の露出状態が適正でなくなってしまうことがあり得る。そのため、ユーザにとっては、全画角の露出状況を把握できるのが望ましい。しかし、ユーザが、全画角を表示させて露出状況を確認しようとしても、全方位映像は縮小表示されるので、全体の露出状況を確認しづらい。このように、ユーザにとって、全方位映像の全画角の露出状況を把握するのが容易でないという問題があった。 By the way, some display devices allow the user to arbitrarily change the exposure of the angle of view being viewed. In such a display device, the exposure state at an angle of view invisible to the user may not be appropriate due to the change in the exposure according to the user operation. Therefore, it is desirable for the user to be able to grasp the exposure state at all angles of view. However, even if the user tries to confirm the exposure condition by displaying the full angle of view, it is difficult to confirm the entire exposure condition because the omnidirectional image is reduced and displayed. As described above, there is a problem that it is not easy for the user to grasp the exposure state of the omnidirectional image at all angles of view.
本発明は、露出状況の把握を容易にすることを目的とする。 An object of the present invention is to make it easy to grasp an exposure situation.
上記目的を達成するために本発明は、撮像装置から全方位映像を受信する受信手段と、表示部と、前記受信手段により受信された前記全方位映像を表示する際、前記全方位映像の全画角から一部の画角を切り出した第1の映像と、前記全画角の第2の映像とを、前記表示部に並行して表示させる制御手段と、露出制御操作を受け付ける受け付け手段と、前記受け付け手段により受け付けられた露出制御操作に基づいて、露出制御要求を前記撮像装置へ送信する送信手段と、を有し、前記制御手段は、前記送信手段により送信された露出制御要求が反映された全方位映像と、前記露出制御要求が反映された全方位映像において露出が不適正な箇所が存在する旨を示す通知とを前記受信手段が前記撮像装置から受信すると、前記通知に基づいて、前記露出が不適正な箇所に視覚的効果を付加して前記第2の映像を前記表示部に表示させることを特徴とする。 In order to achieve the above object, the present invention provides a receiving unit for receiving an omnidirectional image from an imaging device, a display unit, and displaying the omnidirectional image received by the receiving unit. Control means for displaying a first image obtained by cutting out a part of the angle of view from the angle of view and the second image having the full angle of view in parallel on the display unit, and a receiving means for receiving an exposure control operation Transmitting means for transmitting an exposure control request to the imaging device based on the exposure control operation received by the receiving means, wherein the control means reflects the exposure control request transmitted by the transmitting means. When the receiving unit receives from the imaging device a notification indicating that an improperly exposed portion is present in the omnidirectional video that has been reflected and the omnidirectional video in which the exposure control request is reflected, based on the notification, , Serial exposure and wherein the displaying the second image by adding the visual effect on the display unit in improper positions.
本発明によれば、露出状況の把握を容易にすることができる。 According to the present invention, it is possible to easily grasp the exposure situation.
以下、図面を参照して本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る撮像システムの制御ブロック図である。この撮像システムは、全方位映像(全天球映像)を撮像できるカメラ部1000と、ユーザ操作や映像表示を行う操作・表示端末部1100とが、通信可能に接続されて構成される。
(First Embodiment)
FIG. 1 is a control block diagram of the imaging system according to the first embodiment of the present invention. This imaging system is configured such that a camera unit 1000 that can capture an omnidirectional image (omnidirectional image) and an operation / display terminal unit 1100 that performs user operations and image display are communicably connected.
図2は、比較例の撮像システムの制御ブロック図である。比較例(図2)において、本実施の形態の撮像システムと同じ構成要素には同じ符号が付されている。両者に共通する構成要素は、主として本実施の形態の撮像システムの説明において言及する。 FIG. 2 is a control block diagram of the imaging system of the comparative example. In the comparative example (FIG. 2), the same components as those of the imaging system of the present embodiment are denoted by the same reference numerals. Components common to both of them will be mainly described in the description of the imaging system of the present embodiment.
比較例の撮像システムに対し、本実施の形態の撮像システムでは、非適正箇所検出部2020、非適正箇所通知部2021が追加されている。本実施の形態の撮像システムでは、さらに、非適正箇所受信部2120、マーカー重畳部2121、マーカー指定部2122、倍率算出部2123、他マーカー検出部2124が追加されている。なお、マーカー指定部2122、倍率算出部2123、他マーカー検出部2124については、後述する第2の実施の形態で用いられるため、本実施の形態で設けることは必須でない。 In the imaging system of the present embodiment, an improper location detection unit 2020 and an improper location notification unit 2021 are added to the imaging system of the comparative example. The imaging system according to the present embodiment further includes an inappropriate location receiving unit 2120, a marker superimposing unit 2121, a marker specifying unit 2122, a magnification calculating unit 2123, and another marker detecting unit 2124. Note that the marker designation unit 2122, the magnification calculation unit 2123, and the other marker detection unit 2124 are used in the second embodiment described later, and therefore, it is not essential to provide them in this embodiment.
まず、比較例と共通する部分を含め、本実施の形態の構成及び動作について、図1を参照して説明する。カメラ部1000には、360°全方位を撮像できるように複数のセンサを配置する必要があるが、図1の例では2つのセンサ(撮像手段)として撮像素子1003、1004が配置されている。被写体光は、シフトレンズを含むレンズ群1001、1002を通して、それぞれ撮像素子1003、1004に結像する。撮像素子1003、1004は、結像した被写体光学像を電気信号に光電変換する。撮像された映像はそれぞれ、ライン毎に順次、信号処理部1005、1006へ入力される。信号処理部1005、1006は、映像の補正処理及び現象処理を施すことで映像の最適化を行い、生成された映像はメモリ1007に格納される。 First, the configuration and operation of the present embodiment, including portions common to the comparative example, will be described with reference to FIG. A plurality of sensors need to be arranged in the camera unit 1000 so as to capture images in all directions of 360 °. In the example of FIG. 1, image sensors 1003 and 1004 are arranged as two sensors (imaging means). The subject light forms an image on image sensors 1003 and 1004 through lens groups 1001 and 1002 including a shift lens, respectively. The imaging elements 1003 and 1004 photoelectrically convert the formed subject optical image into an electric signal. The captured images are sequentially input to the signal processing units 1005 and 1006 line by line. The signal processing units 1005 and 1006 perform video correction processing and phenomenon processing to optimize the video, and the generated video is stored in the memory 1007.
測光値取得部1008は、信号処理部1005、1006の出力から測光値を取得し、その測光値を評価値生成部1009に送る。評価値生成部1009は、送られた測光値を元に評価値を算出し、その評価値を予め定められた基準と比較することで、露出の適否を判定する。評価値の取得方法は問わず、ここではその一例を示す。評価値生成部1009は、全方位映像の全画角をN×Mのマトリックスに分割し、分割されたそれぞれの分割画角である枠毎の光量値を取得する。それぞれの枠には、場所に応じて予め定められた重み付け(乗算係数)が割り当てられている。評価値生成部1009は、それぞれの枠の光量値と当該枠の重みとを乗算し、全ての枠分の計算結果を加算平均することで、評価値を算出する。重み付けについては、中央付近を大きな値、被写体付近を大きな値にするなど、設計に応じて様々なパターンがあってもよい。評価値を算出するための各値及び式は以下である。
枠の数(横N個、縦M個):N×M
ある枠(横n番目、縦m番目)の測光値:Lnm
ある枠(横n番目、縦m番目)の重み(乗算係数):Knm
ある枠(横n番目、縦m番目)の評価値:Ynm=Lnm×Knm
評価値=(Y11+Y12+・・・YNM)/(N×M)
なお、この評価値算出手法はあくまで一例であり、他の算出方法を使用してもよい。
The photometric value acquiring unit 1008 acquires a photometric value from the output of the signal processing units 1005 and 1006, and sends the photometric value to the evaluation value generating unit 1009. The evaluation value generation unit 1009 calculates an evaluation value based on the sent photometric value, and compares the evaluation value with a predetermined reference to determine whether the exposure is appropriate. Regardless of the method of acquiring the evaluation value, an example is shown here. The evaluation value generation unit 1009 divides the entire angle of view of the omnidirectional video into an N × M matrix, and acquires the light amount value for each frame, which is each of the divided angle of view. Each frame is assigned a predetermined weight (multiplication coefficient) according to the location. The evaluation value generation unit 1009 calculates an evaluation value by multiplying the light amount value of each frame by the weight of the frame and averaging the calculation results of all the frames. For the weighting, there may be various patterns depending on the design, such as a large value near the center and a large value near the subject. The values and formulas for calculating the evaluation value are as follows.
Number of frames (N horizontal, M vertical): N × M
Photometric value of a certain frame (nth horizontal, mth vertical): Lnm
Weight (multiplication coefficient) of a certain frame (nth horizontal and mth vertical): Knm
Evaluation value of a certain frame (nth horizontal and mth vertical): Ynm = Lnm × Knm
Evaluation value = (Y11 + Y12 +... YNM) / (N × M)
Note that this evaluation value calculation method is merely an example, and another calculation method may be used.
評価値生成部1009が、適正露出でないと判定した場合、露出制御部1010は、適正露出となるように、ゲイン制御部1011やシャッタ制御部1012に対して動作命令を出す。その動作命令に応じて、ゲイン制御部1011は信号処理部1005及び信号処理部1006の動作を変更し、シャッタ制御部1012は撮像素子1003、1004の電子シャッタの動作を変更する。その結果、撮像素子1003、1004が露光した映像は適正露出となる。各々の映像は符号化処理部1013により合成されて出力可能な1つの映像(全方位映像)となり、ネットワーク通信部1014に送られる。 If the evaluation value generation unit 1009 determines that the exposure is not proper, the exposure control unit 1010 issues an operation command to the gain control unit 1011 and the shutter control unit 1012 so as to obtain proper exposure. In response to the operation command, the gain control unit 1011 changes the operation of the signal processing unit 1005 and the signal processing unit 1006, and the shutter control unit 1012 changes the operation of the electronic shutters of the imaging devices 1003 and 1004. As a result, the images exposed by the imaging elements 1003 and 1004 are properly exposed. Each video is combined by the encoding processing unit 1013 into one outputtable video (omnidirectional video), and sent to the network communication unit 1014.
映像を含む各種情報は、カメラ部1000内のネットワーク通信部1014と、操作・表示端末部1100内のネットワーク通信部1101(送信手段、受信手段)との間で送受信される。この通信規格は問わず、無線であっても有線であってもよい。操作・表示端末部1100で受信された映像はメモリ1102に格納される。 Various types of information including video are transmitted and received between a network communication unit 1014 in the camera unit 1000 and a network communication unit 1101 (transmission unit, reception unit) in the operation / display terminal unit 1100. Regardless of the communication standard, it may be wireless or wired. The video received by the operation / display terminal unit 1100 is stored in the memory 1102.
本実施の形態では、表示部1103での表示形態として、切り出し映像と全方位映像の双方を並行して表示する形態を想定している。なお、モード切り替え等によって、これらのいずれかのみを表示できるようにしてもよい。ここで、全方位映像については、切出し拡縮制御部1104が、360°全方位画角(全画角)を縮小した全方位縮小映像402(第2の映像;図4参照)として表示させる。一方、切り出し映像401(第1の映像;図4参照)については、切出し拡縮制御部1104は、全方位映像における全画角から、ユーザの要求に応じた一部の画角を切り出し、これに拡大や縮小処理を施して切り出し映像401として表示させる。撮影中においては、切り出し映像401はライブビュー映像(LV)である。 In the present embodiment, as a display mode on display unit 1103, a mode in which both a clipped image and an omnidirectional image are displayed in parallel is assumed. Note that only one of these may be displayed by mode switching or the like. Here, with respect to the omnidirectional video, the cutout enlargement / reduction control unit 1104 displays the omnidirectional reduced video 402 (second video; see FIG. 4) obtained by reducing the 360 ° omnidirectional view angle (all view angles). On the other hand, with respect to the cut-out image 401 (first image; see FIG. 4), the cut-out enlargement / reduction control unit 1104 cuts out a part of the angle of view according to the user's request from the full angle of view in the omnidirectional image, and The image is enlarged or reduced and displayed as a cutout image 401. During shooting, the cutout video 401 is a live view video (LV).
ユーザが要求する画角の切り出し映像401(図4参照)が表示された画面上では、ユーザは、露出制御操作を受け付ける受け付け手段としての露出操作部1105により、所望の明暗となるように露出補正の操作を行える。露出補正操作の内容は、ネットワーク通信部1101からカメラ部1000のネットワーク通信部1014に対して、露出制御要求情報として送信される。カメラ部1000において露出制御要求情報はコントローラ1015により露出制御部1010に渡され、露出制御部1010は、ユーザが望む露出となるように、露出制御要求情報に応じた露出制御を実行する。 On the screen on which the cut-out image 401 (see FIG. 4) of the angle of view requested by the user is displayed, the user operates the exposure operation unit 1105 as an accepting unit that receives an exposure control operation to perform exposure correction so that desired brightness is obtained. Can be operated. The content of the exposure correction operation is transmitted from the network communication unit 1101 to the network communication unit 1014 of the camera unit 1000 as exposure control request information. In the camera unit 1000, the exposure control request information is passed to the exposure control unit 1010 by the controller 1015, and the exposure control unit 1010 executes the exposure control according to the exposure control request information so that the exposure desired by the user is obtained.
ところで、カメラ部1000は、CPU1200のほか、不図示のRAMやROMを備える。このROMには、CPU1200により実行される制御プログラムが格納されている。RAMはCPU1200が制御プログラムを実行する際のワークエリアとなる。カメラ部1000における各機能部の機能は、CPU1200、RAM及びROM等の協働により実現される。ここでいう各機能部には、少なくとも信号処理部1005、1006、測光値取得部1008、評価値生成部1009、露出制御部1010、ゲイン制御部1011、シャッタ制御部1012、符号化処理部1013が含まれる。また、各機能部には、非適正箇所検出部2020、非適正箇所通知部2021が含まれる。 The camera unit 1000 includes a RAM and a ROM (not shown) in addition to the CPU 1200. The ROM stores a control program executed by the CPU 1200. The RAM serves as a work area when the CPU 1200 executes the control program. The function of each functional unit in the camera unit 1000 is realized by cooperation of the CPU 1200, RAM, ROM, and the like. Each functional unit here includes at least signal processing units 1005 and 1006, photometric value acquisition unit 1008, evaluation value generation unit 1009, exposure control unit 1010, gain control unit 1011, shutter control unit 1012, and encoding processing unit 1013. included. In addition, each functional unit includes an inappropriate location detection unit 2020 and an inappropriate location notification unit 2021.
また、操作・表示端末部1100は、制御手段としてのCPU1300のほか、不図示のRAMやROMを備える。ROMには、CPU1300により実行される制御プログラムが格納されている。RAMはCPU1300が制御プログラムを実行する際のワークエリアとなる。操作・表示端末部1100における各機能部の機能は、CPU1300、RAM及びROM等の協働により実現される。各機能部には、少なくとも切出し拡縮制御部1104、マーカー重畳部2121、マーカー指定部2122、倍率算出部2123、他マーカー検出部2124が含まれる。 The operation / display terminal unit 1100 includes a RAM and a ROM (not shown) in addition to the CPU 1300 as a control unit. A control program executed by the CPU 1300 is stored in the ROM. The RAM is a work area when the CPU 1300 executes the control program. The function of each functional unit in the operation / display terminal unit 1100 is realized by cooperation of the CPU 1300, RAM, ROM, and the like. Each functional unit includes at least a cutout enlargement / reduction control unit 1104, a marker superimposition unit 2121, a marker designation unit 2122, a magnification calculation unit 2123, and another marker detection unit 2124.
カメラ部1000において、検出手段としての非適正箇所検出部2020は、測光値取得部1008で取得された測光値に従って各枠の評価値Ynmを計算する。そして非適正箇所検出部2020は、計算した評価値Ynmが、予め定められた閾値の範囲外の場合は、その枠は適正露出ではないと判定し、評価値Ynmが、予め定められた閾値の範囲内であればその枠は適正露出であると判定する。非適正箇所検出部2020は、適正露出ではないと判定された全ての枠の座標情報(「非適正座標」と称する)を、非適正箇所通知部2021に渡す。非適正箇所通知部2021は、渡された非適正座標を、ネットワーク通信部1014を通じて操作・表示端末部1100へ送信する。非適正座標の送信は、全方位映像において露出が不適正な箇所が存在する旨を示す通知でもある。非適正座標は、全方位映像における露出が不適正な箇所を特定する情報である。枠の座標情報により、枠の位置と枠に対応する画角とを特定可能である。 In the camera unit 1000, an inappropriate portion detection unit 2020 as a detection unit calculates an evaluation value Ynm of each frame according to the photometry value acquired by the photometry value acquisition unit 1008. If the calculated evaluation value Ynm is out of the range of the predetermined threshold, the inappropriate position detection unit 2020 determines that the frame is not a proper exposure, and determines that the evaluation value Ynm is equal to or smaller than the predetermined threshold. If it is within the range, it is determined that the frame is properly exposed. The improper location detection unit 2020 passes the coordinate information (referred to as “inappropriate coordinates”) of all the frames determined not to be the proper exposure to the improper location notification unit 2021. The inappropriate location notification unit 2021 transmits the passed inappropriate coordinates to the operation / display terminal unit 1100 via the network communication unit 1014. The transmission of the inappropriate coordinates is also a notification indicating that there is a portion where the exposure is inappropriate in the omnidirectional video. Inappropriate coordinates are information for specifying a portion of the omnidirectional image where the exposure is inappropriate. The position of the frame and the angle of view corresponding to the frame can be specified by the coordinate information of the frame.
操作・表示端末部1100において、ネットワーク通信部1101は非適正座標を受信すると、それを非適正箇所受信部2120へ渡す。非適正箇所受信部2120は、非適正座標を全方位画角の座標に変換し、変換した座標情報をマーカー重畳部2121に渡す。マーカー重畳部2121は、全方位映像の全方位画角における、渡された座標上にマーカーを重畳し、メモリ1102に書き込む。ここで、マーカーは、適正露光でないことを視認させる視覚的効果の一例である。メモリ1102に書き込まれたマーカー付きの映像は、表示部1103により表示される(図4で後述)。マーカーを重畳する処理を含む動作を図3で説明する。 In the operation / display terminal unit 1100, when the network communication unit 1101 receives the inappropriate coordinates, it passes it to the inappropriate location receiving unit 2120. The incorrect position receiving unit 2120 converts the inappropriate coordinates into coordinates of the omnidirectional angle of view, and passes the converted coordinate information to the marker superimposing unit 2121. The marker superimposing unit 2121 superimposes the marker on the passed coordinates in the omnidirectional angle of view of the omnidirectional video and writes the marker into the memory 1102. Here, the marker is an example of a visual effect for visually recognizing that the exposure is not appropriate. The image with the marker written in the memory 1102 is displayed on the display unit 1103 (described later with reference to FIG. 4). An operation including a process of superimposing a marker will be described with reference to FIG.
図3(a)は、カメラ部1000で実行されるカメラ側処理のフローチャートである。図3(b)は、操作・表示端末部1100で実行される表示側処理のフローチャートである。カメラ側処理は、CPU1200が、カメラ部1000のROMに格納されたプログラムをRAM(いずれも不図示)に展開して実行することにより実現される。また、表示側処理は、CPU1300が、操作・表示端末部1100のROMに格納されたプログラムをRAM(いずれも不図示)に展開して実行することにより実現される。カメラ側処理及び表示側処理は、カメラ部1000と操作・表示端末部1100との通信が確立すると開始され、通信が切断されると終了する。両処理は並行して実行される。カメラ側処理及び表示側処理の開始時には、カメラ部1000から操作・表示端末部1100へ全方位映像が送信されているとする。 FIG. 3A is a flowchart of camera-side processing executed by the camera unit 1000. FIG. 3B is a flowchart of display-side processing executed by the operation / display terminal unit 1100. The camera-side processing is realized by the CPU 1200 expanding a program stored in the ROM of the camera unit 1000 into a RAM (both not shown) and executing the program. The display-side processing is realized by the CPU 1300 expanding a program stored in the ROM of the operation / display terminal unit 1100 into a RAM (both not shown) and executing the program. The camera-side processing and the display-side processing are started when communication between the camera unit 1000 and the operation / display terminal unit 1100 is established, and ended when the communication is disconnected. Both processes are performed in parallel. It is assumed that the omnidirectional video is transmitted from the camera unit 1000 to the operation / display terminal unit 1100 at the start of the camera-side processing and the display-side processing.
まず、カメラ側処理(図3(a))を説明する。ステップS3001では、CPU1200は、操作・表示端末部1100から送信されてきた露出制御要求情報がネットワーク通信部1014で受信されたと判別するまで待機する。露出制御要求情報が受信されれば、ユーザにより露出操作がされたと判断できるからである。そしてCPU1200は、露出制御要求情報が受信されたと判別すると、処理をステップS3002に進める。 First, the camera-side processing (FIG. 3A) will be described. In step S3001, the CPU 1200 waits until it determines that the exposure control request information transmitted from the operation / display terminal unit 1100 has been received by the network communication unit 1014. This is because if the exposure control request information is received, it can be determined that an exposure operation has been performed by the user. If CPU 1200 determines that the exposure control request information has been received, it advances the process to step S3002.
ステップS3002では、CPU1200は、露出制御部1010により、露出制御要求情報に応じた適正露出となるように露出制御(露出補正)を実行する。ステップS3003では、CPU1200は、非適正箇所検出部2020により適正露出でないと判定された枠(箇所)があるか否かを判別する。そしてCPU1200は、適正露出でないと判定された枠がないと判別した場合は、処理をステップS3005に進める。一方、CPU1200は、適正露出でないと判定された枠があると判別した場合は、ステップS3004を実行してから処理をステップS3005に進める。 In step S3002, the CPU 1200 causes the exposure control unit 1010 to perform exposure control (exposure correction) so as to achieve proper exposure according to the exposure control request information. In step S3003, the CPU 1200 determines whether or not there is a frame (location) that is determined by the inappropriate location detection unit 2020 as not being properly exposed. If the CPU 1200 determines that there is no frame determined not to be the proper exposure, the process proceeds to step S3005. On the other hand, if the CPU 1200 determines that there is a frame determined not to be the proper exposure, it executes step S3004 and then advances the processing to step S3005.
ステップS3004では、CPU1200は、適正露出でないと判定された枠の座標情報(非適正座標)を、非適正箇所通知部2021により、ネットワーク通信部1014を通じて操作・表示端末部1100へ送信する。ステップS3005では、CPU1200は、符号化処理部1013により、全画角の全方位映像を、ネットワーク通信部1014を通じて操作・表示端末部1100へ送信する。ステップS3005の後、CPU1200は、処理をステップS3001に戻す。 In step S3004, the CPU 1200 transmits the coordinate information (inappropriate coordinates) of the frame determined not to be the appropriate exposure to the operation / display terminal unit 1100 through the network communication unit 1014 by the inappropriate position notification unit 2021. In step S3005, the CPU 1200 causes the encoding processing unit 1013 to transmit an omnidirectional video image of all angles of view to the operation / display terminal unit 1100 via the network communication unit 1014. After step S3005, CPU 1200 returns the process to step S3001.
次に、表示側処理(図3(b))を説明する。ステップS3101では、CPU1300は、ユーザから露出操作部1105に対して露出補正操作があったと判別するまで待機する。そしてCPU1300は、露出補正操作があったと判別すると、露出補正操作の内容に応じた露出制御要求情報を、ネットワーク通信部1101を通じてカメラ部1000へ送信する。なお、この露出制御要求情報は、カメラ部1000によってステップS3001で受信される。 Next, the display-side processing (FIG. 3B) will be described. In step S3101, the CPU 1300 waits until it is determined that the user has performed an exposure correction operation on the exposure operation unit 1105. If the CPU 1300 determines that an exposure correction operation has been performed, the CPU 1300 transmits exposure control request information corresponding to the content of the exposure correction operation to the camera unit 1000 via the network communication unit 1101. Note that the exposure control request information is received by the camera unit 1000 in step S3001.
ステップS3102では、CPU1300は、カメラ部1000からネットワーク通信部1101を通じて全画角の全方位映像を受信する。ここで受信される全画角の全方位映像は、図3(a)のステップS3002での露出制御が施された映像である。すなわち、この全方位映像は、ステップS3101で送信した露出制御要求情報が反映された後、ステップS3005で送信された全方位映像である。 In step S3102, the CPU 1300 receives an omnidirectional video image at all angles of view from the camera unit 1000 via the network communication unit 1101. The received omnidirectional image of all angles of view is the image on which the exposure control in step S3002 of FIG. 3A has been performed. That is, the omnidirectional video is the omnidirectional video transmitted in step S3005 after the exposure control request information transmitted in step S3101 is reflected.
ステップS3103では、CPU1300は、受信した全画角の全方位映像を切り出して切り出し映像401として表示する。すなわち、CPU1300は、全方位映像を、ユーザが要求するLV(ライブビュー)画角となるよう、切出し拡縮制御部1104により切出し・拡大を行う。ここで、操作・表示端末部1100の表示部1103の表示例について図4で説明する。 In step S3103, the CPU 1300 cuts out the received omnidirectional video image of all angles of view and displays the cutout video image 401. That is, the CPU 1300 cuts out / enlarges the omnidirectional video by the cutout / enlargement / reduction control unit 1104 so that the LV (live view) angle of view requested by the user is obtained. Here, a display example of the display unit 1103 of the operation / display terminal unit 1100 will be described with reference to FIG.
図4は、表示部1103の表示例を示す図である。表示部1103には、全画角の全方位映像を縮小した全方位縮小映像402と、ユーザが要求するLV(ライブビュー)画角の切り出し映像401とが同時に表示可能である。切り出し映像401の画角はユーザが任意に指定できる。全方位縮小映像402は、撮像素子1003で得られた第1面画角の映像と、撮像素子1004で得られた第2面画角の映像とが別々に生成され、合成表示されたものである。全方位縮小映像402は、すなわち、前面180°画角の映像402aと後面180°画角の映像402bとで成る。なお、全方位縮小映像402は、全体が俯瞰できるのであればよく、別の手法で表示されても良い。全方位縮小映像402に重畳表示されているマーカー407(407a、407b、407c等)は、ステップS3004で送信されてきた非適正座標がステップS3104で受信されるまでは未表示のままである。 FIG. 4 is a diagram illustrating a display example of the display unit 1103. The display unit 1103 can simultaneously display an omnidirectional reduced image 402 obtained by reducing an omnidirectional image having an omnidirectional angle and a clipped image 401 having an LV (live view) angle of view requested by the user. The angle of view of the cutout video 401 can be arbitrarily specified by the user. The omnidirectional reduced image 402 is obtained by separately generating the image of the first surface angle of view obtained by the image sensor 1003 and the image of the second surface angle of view obtained by the image sensor 1004, and displaying the combined image. is there. The omnidirectional reduced image 402 is composed of an image 402a having an angle of view of 180 ° on the front side and an image 402b having an angle of view of 180 ° on the rear side. Note that the omnidirectional reduced image 402 may be displayed by another method as long as the whole can be looked down on. The markers 407 (407a, 407b, 407c, etc.) superimposed on the omnidirectional reduced image 402 remain undisplayed until the inappropriate coordinates transmitted in step S3004 are received in step S3104.
切り出し映像401の画面内には、露出操作UI404のほか、露出が不適正な箇所の存在を報知するためのアイコン405が表示され得る。露出操作UI404は、ユーザが露出補正の操作を行うための操作部であり、露出操作部1105が該当する。なお、露出操作部1105は、露出操作UI404とは別の物理的な操作部として設けられてもよい。アイコン405は、非適正座標がステップS3104で受信されることで、露出が不適正な箇所が存在する旨を示す通知を受けると表示される。このアイコン405により、ユーザは、露出が不適正な箇所が存在することに気が付きやすい。 In the screen of the cut-out image 401, an icon 405 for notifying the presence of the improperly exposed portion may be displayed in addition to the exposure operation UI 404. The exposure operation UI 404 is an operation unit for the user to perform an exposure correction operation, and corresponds to the exposure operation unit 1105. Note that the exposure operation unit 1105 may be provided as a physical operation unit different from the exposure operation UI 404. The icon 405 is displayed when the inappropriate coordinates are received in step S3104 and a notification indicating that an improperly exposed portion is present is received. The icon 405 makes it easy for the user to notice that there is a portion where the exposure is inappropriate.
ステップS3104では、CPU1300は、非適正座標が送信されてきたと判定した場合はネットワーク通信部1101により非適正座標を受信する。次に、ステップS3105では、CPU1300は、適正露出でない枠(箇所)があるか否かを、非適正座標を受信したか否かによって判別する。CPU1300は、非適正座標を受信していない場合は、適正露出でない枠(箇所)がないと判別して、処理をステップS3101に戻す。一方、CPU1300は、非適正座標を受信した場合は、適正露出でない枠(箇所)があると判別して、処理をステップS3106に進める。 In step S3104, when CPU 1300 determines that the incorrect coordinates have been transmitted, CPU 1300 receives the incorrect coordinates by network communication unit 1101. Next, in step S3105, CPU 1300 determines whether or not there is a frame (location) that is not properly exposed, based on whether or not inappropriate coordinates have been received. If the incorrect coordinates have not been received, the CPU 1300 determines that there is no frame (location) that is not properly exposed, and returns the process to step S3101. On the other hand, when receiving the inappropriate coordinates, the CPU 1300 determines that there is a frame (location) that is not properly exposed, and advances the process to step S3106.
ステップS3106では、CPU1300は、マーカー重畳部2121により、非適正座標に対応する位置に、マーカー407を重畳する。そしてステップS3107では、CPU1300は、マーカー407を重畳した映像を表示部1103に表示させる(図4)。ここで、マーカー407は、受信された非適正座標の数だけ表示される。非適正座標が受信された場合、マーカー407は、全方位縮小映像402には必ず表示される。切り出し映像401においては、切り出し映像401の画角に非適正座標が含まれていれば、切り出し映像401にもマーカー407が表示される。その後、CPU1300は、処理をステップS3101に戻す。 In step S3106, the CPU 1300 causes the marker superimposing unit 2121 to superimpose the marker 407 at a position corresponding to the incorrect coordinates. Then, in step S3107, CPU 1300 causes display unit 1103 to display an image on which marker 407 is superimposed (FIG. 4). Here, the markers 407 are displayed by the number of the received incorrect coordinates. When the incorrect coordinates are received, the marker 407 is always displayed on the omnidirectional reduced image 402. In the cutout video 401, if the angle of view of the cutout video 401 includes incorrect coordinates, the marker 407 is also displayed on the cutout video 401. After that, the CPU 1300 returns the process to step S3101.
なお、マーカー407は、枠内の一部に付加してもよいし、枠の全領域に付加してもよい。なお、マーカー重畳部2121による視覚的効果の付加は、指定された枠内の色や輝度の変更、あるいは模様の重畳という態様であってもよい。また、CPU1300は、表示される映像の枠内に該当するメモリ情報を直接参照し、その値に応じてゼブラパターンのような模様を重畳してもよい。 Note that the marker 407 may be added to a part of the frame or may be added to the entire area of the frame. Note that the addition of the visual effect by the marker superimposing unit 2121 may be in the form of changing the color or luminance in the designated frame or superimposing the pattern. The CPU 1300 may directly refer to the corresponding memory information within the frame of the displayed video, and superimpose a pattern such as a zebra pattern according to the value.
なお、操作・表示端末部1100は、座標の情報を使用せずに、映像全体の画素値を直接判定し、その値に応じて、視覚的効果としてゼブラパターンのような模様を重畳する手法を採用してもよい。この場合、カメラ部1000は、操作・表示端末部1100へ、非適正座標を送信することは必須でなく、露出制御要求が反映された全方位映像において露出が不適正な箇所が存在する旨を示す通知だけを送信するようにしてもよい。なお、非適正座標を送信した場合においては、非適正座標は、全方位映像における露出が不適正な箇所を特定する情報であるので、操作・表示端末部1100での処理負担が少なくて済む。 In addition, the operation / display terminal unit 1100 directly determines the pixel value of the entire video without using the coordinate information, and superimposes a pattern such as a zebra pattern as a visual effect according to the value. May be adopted. In this case, the camera unit 1000 does not necessarily need to transmit the inappropriate coordinates to the operation / display terminal unit 1100, and informs the user that there is a portion where the exposure is inappropriate in the omnidirectional video reflecting the exposure control request. Only the indicated notification may be transmitted. In the case where the inappropriate coordinates are transmitted, the inappropriate coordinates are information for specifying a portion where the exposure in the omnidirectional image is inappropriate, so that the processing load on the operation / display terminal unit 1100 can be reduced.
本実施の形態によれば、操作・表示端末部1100が露出制御要求情報を送信すると、カメラ部1000は、露出制御要求情報に応じて、全方位映像の露出を制御すると共に、露出制御後の露出が不適正な箇所を検出する。そしてカメラ部1000は、露出制御要求情報に応じた露出制御が反映された後の全方位映像を操作・表示端末部1100へ送信すると共に、露出が不適正な箇所が存在する旨を示す通知として非適正座標を送信する。すると、操作・表示端末部1100は、受信した通知に基づいて、マーカー407を全方位縮小映像402に重畳表示すると共に、切り出し映像401の画角に非適正座標が含まれていれば、切り出し映像401にもマーカー407を重畳表示する。ユーザは、主として視聴している画角だけでなく、マーカー407をたよりに、全方位縮小映像402を見て、露出不適正な箇所を全体俯瞰により視認できる。よって、露出状況の把握を容易にすることができる。 According to the present embodiment, when operation / display terminal unit 1100 transmits exposure control request information, camera unit 1000 controls the exposure of the omnidirectional video in accordance with the exposure control request information, and also controls the exposure after the exposure control. Detects improperly exposed areas. Then, the camera unit 1000 transmits the omnidirectional image after the exposure control according to the exposure control request information is reflected to the operation / display terminal unit 1100, and also notifies the operation / display terminal unit 1100 that there is a location where the exposure is inappropriate. Send incorrect coordinates. Then, based on the received notification, the operation / display terminal unit 1100 superimposes and displays the marker 407 on the omnidirectional reduced image 402 and, if the angle of view of the cutout image 401 includes incorrect coordinates, the cutout image A marker 407 is also superimposed on 401. The user can view the omnidirectional reduced image 402 not only from the angle of view being viewed but also from the marker 407, and can visually recognize the inappropriately exposed portion from a bird's-eye view. Therefore, it is possible to easily grasp the exposure state.
なお、全方位縮小映像402での露出確認の容易化の観点からは、切り出し映像401の画角に非適正座標が含まれていても、切り出し映像401にマーカー407を重畳表示することは必須でない。 In addition, from the viewpoint of facilitating the confirmation of the exposure in the omnidirectional reduced image 402, it is not essential to superimpose the marker 407 on the cut image 401 even if the angle of view of the cut image 401 includes improper coordinates. .
(第2の実施の形態)
第1の実施の形態では、全方位縮小映像402にマーカー407が重畳表示される。しかし、全方位縮小映像402は縮小された映像であるので、ユーザが個々のマーカー407に対応する詳細な露光状況を確認するのは容易でない。そこで、本発明の第2の実施の形態では、個々のマーカー407を拡大表示できるようにして、露光状況の確認をより容易にする。本実施の形態では、図1のマーカー指定部2122、倍率算出部2123、他マーカー検出部2124も使用される。
(Second embodiment)
In the first embodiment, a marker 407 is superimposed on the omnidirectional reduced image 402. However, since the omnidirectional reduced image 402 is a reduced image, it is not easy for the user to check the detailed exposure status corresponding to each marker 407. Therefore, in the second embodiment of the present invention, the individual markers 407 can be displayed in an enlarged manner to make it easier to check the exposure status. In the present embodiment, the marker designation unit 2122, the magnification calculation unit 2123, and the other marker detection unit 2124 in FIG. 1 are also used.
ユーザは、全方位縮小映像402上に重畳されたマーカー407のうち所望のものを、選択手段としてのマーカー指定部2122により指定(選択)することができる。指定の態様は、例えば、カーソルの移動と押下操作による。指定されたマーカー407を示す情報は非適正箇所受信部2120に送られる。非適正箇所受信部2120は、マーカー407とマーカー407の各々の全方位縮小映像402上の座標情報との対応関係を規定するテーブルを保持している。非適正箇所受信部2120は、当該テーブルを参照して、指定されたマーカー407の、全方位縮小映像402上の座標情報を取得できる。取得された座標情報は倍率算出部2123に送られる。 The user can designate (select) a desired one of the markers 407 superimposed on the omnidirectional reduced image 402 by the marker designation unit 2122 as a selection unit. The mode of designation is, for example, by moving and pressing a cursor. Information indicating the designated marker 407 is sent to the inappropriate location receiving unit 2120. The inappropriate location receiving unit 2120 holds a table that defines the correspondence between the marker 407 and the coordinate information on the omnidirectional reduced image 402 of each of the markers 407. The inappropriate location receiving unit 2120 can acquire the coordinate information on the omnidirectional reduced image 402 of the designated marker 407 with reference to the table. The acquired coordinate information is sent to the magnification calculator 2123.
倍率算出部2123は、指定されたマーカー407を画面の所定位置、例えば中心に据えて、さらに拡大表示をした、「マーカー中心画角」にするための倍率を算出する。その際、倍率算出部2123は、マーカー407が存在する枠が表示部1103の表示画面の例えば20%内に収まる画角(面積B)となるように、360°全方位の画角に対して拡大する倍率R(%)を算出する。なお、この20%という値は固定値であるが、20%という値に限定されない。カメラ部1000から操作・表示端末部1100へ転送される全方位映像を「元画像」とする。元画像に対するマーカー中心画角の拡大率である倍率R(%)を算出するための各値及び式は以下である。Zはマーカー中心画角中のマーカーの大きさを示す値であり、例えば、マーカーが占める面積の割合である。
マーカーが重畳された枠の数:X
枠の数(横N個、縦M個):N×M
元画像の面積:A
操作・表示端末部1100で表示する画角の面積:B
マーカーの大きさ(%):Z
マーカー中心画像の画角の面積C=A×{X/(N×M)}(Z/100)
R=B/C=BNMZ/100AX
The magnification calculation unit 2123 calculates the magnification for setting the designated marker 407 at a predetermined position on the screen, for example, at the center, and making the “marker center view angle” further enlarged and displayed. At this time, the magnification calculation unit 2123 determines the angle of view (360 degrees) in all directions so that the frame in which the marker 407 is present has an angle of view (area B) within, for example, 20% of the display screen of the display unit 1103. The magnification R (%) for enlargement is calculated. The value of 20% is a fixed value, but is not limited to the value of 20%. The omnidirectional video transferred from the camera unit 1000 to the operation / display terminal unit 1100 is referred to as an “original image”. The values and formulas for calculating the magnification R (%), which is the magnification of the marker center angle of view with respect to the original image, are as follows. Z is a value indicating the size of the marker in the marker center angle of view, and is, for example, the ratio of the area occupied by the marker.
Number of frames with markers superimposed: X
Number of frames (N horizontal, M vertical): N × M
Original image area: A
Area of view angle displayed on operation / display terminal unit 1100: B
Marker size (%): Z
Area of the angle of view of the marker center image C = A × {X / (N × M)} (Z / 100)
R = B / C = BNMZ / 100AX
図5(a)、(b)は、マーカー中心画角の映像の例を示す図である。図6は、マーカー中心画角の映像が表示された表示部1103の表示例を示す図である。例えば、ユーザが、図4に示す全方位縮小映像402が表示されている状態で、映像上に重畳された複数のマーカー407のうち、マーカー407aを、マーカー指定部2122により選択したとする。すると、図6に示すように、全方位縮小映像402に代えて、視覚的効果を含む第3の映像として、マーカー中心画角の映像(以下、マーカー中心画角映像403と記す)が、切り出し映像401と並行して表示される。 FIGS. 5A and 5B are diagrams illustrating an example of an image of a marker center angle of view. FIG. 6 is a diagram illustrating a display example of the display unit 1103 on which the image of the marker center angle of view is displayed. For example, it is assumed that the user selects the marker 407a from the plurality of markers 407 superimposed on the image by the marker specifying unit 2122 while the omnidirectional reduced image 402 shown in FIG. 4 is displayed. Then, as shown in FIG. 6, instead of the omnidirectional reduced image 402, an image of a marker center angle of view (hereinafter referred to as a marker center angle of view image 403) is cut out as a third image including a visual effect. It is displayed in parallel with the image 401.
マーカー中心画角映像403の一例を図5(a)に示す。マーカー中心画角映像403の表示にあたって、選択されたマーカー407の表示サイズが全方位縮小映像402での表示サイズより大きくなるようにマーカー407の表示サイズが変更されることで、マーカー407が見やすくなる。選択されたマーカー407の全体がマーカー中心画角映像403に表れるような倍率Rとなるように、Z値が設定されるのが望ましい。Z値は固定値であってもよいが、ユーザが指定できるようにしてもよい。その場合、ユーザは、選択したマーカー407を大きく表示したければ、Z値をより大きい値に設定すればよい。 An example of the marker center view angle image 403 is shown in FIG. In displaying the marker center angle of view image 403, the display size of the marker 407 is changed such that the display size of the selected marker 407 is larger than the display size of the omnidirectional reduced image 402, so that the marker 407 becomes easier to see. . It is desirable that the Z value be set so that the magnification R is such that the entire selected marker 407 appears in the marker center view angle image 403. The Z value may be a fixed value, or may be specified by the user. In that case, if the user wants to display the selected marker 407 in a large size, the user may set the Z value to a larger value.
なお、倍率Rの算出手法は例示したものに限定されない。選択されたマーカー407を見やすくする観点からは、選択されたマーカー407の表示サイズが全方位縮小映像402での表示サイズより大きくなるような倍率Rが算出されるようにすればよい。 Note that the method of calculating the magnification R is not limited to the illustrated one. From the viewpoint of making the selected marker 407 easier to see, the magnification R may be calculated so that the display size of the selected marker 407 is larger than the display size of the omnidirectional reduced image 402.
図7は、操作・表示端末部1100で実行される表示側処理のフローチャートである。この表示側処理は、CPU1300が、操作・表示端末部1100のROMに格納されたプログラムをRAM(いずれも不図示)に展開して実行することにより実現される。カメラ部1000で実行されるカメラ側処理については、図3(a)で説明したのと同様である。 FIG. 7 is a flowchart of display-side processing executed by the operation / display terminal unit 1100. The display-side processing is realized by the CPU 1300 expanding a program stored in the ROM of the operation / display terminal unit 1100 into a RAM (both not shown) and executing the program. The camera-side processing executed by the camera unit 1000 is the same as that described with reference to FIG.
ステップS3101〜S3107は、図3で説明したのと同じである。ただし、ステップS3107の後、処理はステップS701に進む。ステップS701では、操作・表示端末部1100のCPU1300は、全方位縮小映像402上のマーカー407のいずれかが、ユーザによるマーカー指定部2122の選択操作により選択されたか否かを判別する。そしてCPU1300は、マーカー407が選択されていないと判別した場合は、処理をステップS3101に戻し、一方、いずれかのマーカー407が選択されたと判別した場合は、処理をステップS702に進める。 Steps S3101 to S3107 are the same as those described in FIG. However, after step S3107, the process proceeds to step S701. In step S701, the CPU 1300 of the operation / display terminal unit 1100 determines whether any of the markers 407 on the omnidirectional reduced image 402 has been selected by a user's selecting operation on the marker specifying unit 2122. When determining that marker 407 has not been selected, CPU 1300 returns the process to step S3101. On the other hand, when determining that any marker 407 has been selected, CPU 1300 advances the process to step S702.
ステップS702では、上述したように、CPU1300は、倍率算出部2123により、選択されたマーカー407をマーカー中心画角映像403として拡大表示するための倍率Rを算出する。次に、ステップS703では、CPU1300は、算出された倍率Rに従い、マーカー中心画角映像403を、全方位縮小映像402に代えて表示する(図6)。その後、CPU1300は、処理をステップS3101に戻す。 In step S702, as described above, the CPU 1300 causes the magnification calculator 2123 to calculate the magnification R for enlarging and displaying the selected marker 407 as the marker center view angle image 403. Next, in step S703, the CPU 1300 displays the marker center view angle image 403 in place of the omnidirectional reduced image 402 according to the calculated magnification R (FIG. 6). After that, the CPU 1300 returns the process to step S3101.
本実施の形態によれば、露出状況の把握を容易にすることに関し、第1の実施の形態と同様の効果を奏することができる。また、マーカー中心画角映像403の表示にあたって、選択されたマーカー407が、全方位縮小映像402での表示時より拡大されて表示されるので、ユーザはマーカー407を見やすくなり、不適正露出箇所の露出状況の詳細な把握が容易となる。 According to the present embodiment, the same effects as in the first embodiment can be obtained with respect to facilitating the grasp of the exposure situation. Further, in displaying the marker center view angle image 403, the selected marker 407 is displayed in a larger scale than when the omnidirectional reduced image 402 is displayed. Detailed understanding of the exposure situation is facilitated.
なお、マーカー中心画角は、カメラ部1000で設定された枠単位で設定されるが、それに限定されない。例えば、CPU1300は、選択されたマーカーを中心として、予め定められた画角を切り出してもよい。 Note that the marker center angle of view is set in frame units set by the camera unit 1000, but is not limited thereto. For example, the CPU 1300 may cut out a predetermined angle of view around the selected marker.
ところで、マーカー中心画角映像403に、選択されたマーカーとは別のマーカーの一部が含まれる場合があり得る。このような場合、CPU1300は、選択されたマーカーの全体及び上記別のマーカーの全体がマーカー中心画角映像403に表れるように、倍率Rを変更してもよい。このための動作について説明する。 By the way, the marker center view angle image 403 may include a part of a marker different from the selected marker. In such a case, the CPU 1300 may change the magnification R such that the entirety of the selected marker and the entirety of the another marker appear in the marker center view angle image 403. The operation for this will be described.
ステップS702において、CPU1300は、倍率Rを算出した後、マーカー中心画角映像403に、ユーザが選択したのとは異なる別のマーカーの一部が入り込むか否かを他マーカー検出部2124による検出結果に基づき判別する。例えば、図4に示す全方位縮小映像402においては、マーカー407bが3つ、重なって表示されている。3つのマーカー407bのうち1つが選択された場合、1回目に算出された倍率Rが適用されると、他の1つまたは2つのマーカー407bの一部がマーカー中心画角映像403に入り込む可能性がある。 In step S702, after calculating the magnification R, the CPU 1300 determines whether or not a part of another marker different from the one selected by the user enters the marker center angle-of-view image 403 by the other marker detection unit 2124. Is determined based on For example, in the omnidirectional reduced image 402 shown in FIG. 4, three markers 407b are displayed overlapping each other. When one of the three markers 407b is selected, a part of the other one or two markers 407b may enter the marker center view image 403 when the magnification R calculated at the first time is applied. There is.
そこで、ステップS702において、CPU1300は、倍率Rの算出後に、別のマーカーの一部が入り込まないと判別した場合は、処理をステップS703に進める。しかし、CPU1300は、別のマーカーの一部が入り込むと判別した場合は、入り込むマーカーに該当する上記別のマーカーの全体がマーカー中心画角映像403に包含されて表示されるように、倍率Rを変更する。その際、CPU1300は、現在の倍率Rに所定の係数y(1より小さい)を乗算して、新たな倍率Rを得る。新たに得られた倍率Rが適用されたマーカー中心画角映像403に、上記別のマーカーの全体が入りきらない場合は、再び、現在の倍率Rに所定の係数yを乗算して、新たな倍率Rを得る。CPU1300は、上記別のマーカーの全体がマーカー中心画角映像403に表れるようになるまで、所定の係数yの乗算による倍率Rを繰り返し、その後、処理をステップS703に進める。その結果、例えば、図5(b)に示すように、3つのマーカー407bが表れたマーカー中心画角映像403が表示される。 Therefore, in step S702, if the CPU 1300 determines that a part of another marker does not enter after calculating the magnification R, the process proceeds to step S703. However, if the CPU 1300 determines that a part of another marker enters, the CPU 1300 sets the magnification R so that the whole of the another marker corresponding to the entering marker is included in the marker center view angle image 403 and displayed. change. At that time, the CPU 1300 obtains a new magnification R by multiplying the current magnification R by a predetermined coefficient y (smaller than 1). If the whole of the other marker does not fit in the marker center view angle image 403 to which the newly obtained magnification R has been applied, the current magnification R is again multiplied by a predetermined coefficient y, and a new coefficient R is obtained. Obtain the magnification R. The CPU 1300 repeats the magnification R by multiplying by the predetermined coefficient y until the whole of the another marker appears in the marker center angle-of-view image 403, and then advances the process to step S703. As a result, for example, as shown in FIG. 5B, a marker center view angle image 403 showing three markers 407b is displayed.
なお、本実施の形態において、マーカー中心画角映像403を全方位縮小映像402に代えて表示したが、これに限らない。例えば、図8に変形例を示すように、CPU1300は、全方位縮小映像402の表示を維持したまま、別途、マーカー中心画角映像403を表示させてもよい。また、選択されたマーカーが2つ以上あるときは、CPU1300は、選択されたマーカーの数に対応して、マーカー中心画角映像403を複数、表示させてもよい。 In the present embodiment, the marker center angle of view image 403 is displayed instead of the omnidirectional reduced image 402, but the present invention is not limited to this. For example, as shown in a modified example in FIG. 8, the CPU 1300 may separately display the marker center angle of view image 403 while maintaining the display of the omnidirectional reduced image 402. When there are two or more selected markers, CPU 1300 may display a plurality of marker center angle-of-view images 403 corresponding to the number of selected markers.
なお、上記各実施の形態において、フローチャートの動作主体が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 In each of the above embodiments, the above-described various controls described as being performed by the operation subject of the flowchart may be performed by one piece of hardware, or the processing may be shared by a plurality of pieces of hardware. May be controlled.
また、上述した実施形態においては、本発明を撮像装置及び表示装置に適用した場合を例にして説明した。しかし、撮像装置としては、全方位映像を撮像する機能を有する装置であれば本発明を適用可能である。また、表示装置としては、全方位映像を切り出して表示する機能を有する装置であれば本発明を適用可能である。従って、表示装置として、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置を適用可能である。さらに、表示装置として、デジタルフォトフレーム、音楽プレーヤ、ゲーム機、電子ブックリーダ、タブレット端末、スマートフォン、投影装置、ディスプレイを備える家電装置や車載装置などが適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to the imaging device and the display device has been described as an example. However, the present invention can be applied to any imaging device as long as it has a function of capturing an omnidirectional image. The present invention can be applied to any display device as long as it has a function of cutting out and displaying an omnidirectional image. Therefore, as a display device, a personal computer, a PDA, a mobile phone terminal, a portable image viewer, and a printer device having a display can be applied. Further, as the display device, a digital photo frame, a music player, a game machine, an electronic book reader, a tablet terminal, a smartphone, a projection device, a home appliance including a display, a vehicle-mounted device, and the like can be applied.
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or an apparatus via a network or various storage media, and a computer (or a CPU or an MPU) of the system or the apparatus reads out the program code and This is the process to be performed. In this case, the program and a storage medium storing the program constitute the present invention.
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。 As described above, the present invention has been described in detail based on the preferred embodiments. However, the present invention is not limited to these specific embodiments, and various forms that do not depart from the gist of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.
401 切り出し映像
402 全方位縮小映像
407 マーカー
1000 カメラ部
1100 操作・表示端末部
1101 ネットワーク通信部
1103 表示部
1105 露出操作部
1300 CPU
401 cutout image 402 omnidirectional reduced image 407 marker 1000 camera unit 1100 operation / display terminal unit 1101 network communication unit 1103 display unit 1105 exposure operation unit 1300 CPU
Claims (19)
表示部と、
前記受信手段により受信された前記全方位映像を表示する際、前記全方位映像の全画角から一部の画角を切り出した第1の映像と、前記全画角の第2の映像とを、前記表示部に並行して表示させる制御手段と、
露出制御操作を受け付ける受け付け手段と、
前記受け付け手段により受け付けられた露出制御操作に基づいて、露出制御要求を前記撮像装置へ送信する送信手段と、を有し、
前記制御手段は、前記送信手段により送信された露出制御要求が反映された全方位映像と、前記露出制御要求が反映された全方位映像において露出が不適正な箇所が存在する旨を示す通知とを前記受信手段が前記撮像装置から受信すると、前記通知に基づいて、前記露出が不適正な箇所に視覚的効果を付加して前記第2の映像を前記表示部に表示させることを特徴とする表示装置。 Receiving means for receiving an omnidirectional image from the imaging device;
A display unit,
When displaying the omnidirectional image received by the receiving means, a first image obtained by cutting out a part of the angle of view from an entire angle of view of the omnidirectional image, and a second image of the omnidirectional image are displayed. Control means for displaying in parallel on the display unit,
Receiving means for receiving an exposure control operation;
Transmitting means for transmitting an exposure control request to the imaging device based on the exposure control operation received by the receiving means,
The control unit is an omnidirectional image in which the exposure control request transmitted by the transmitting unit is reflected, and a notification indicating that an improperly exposed portion exists in the omnidirectional image in which the exposure control request is reflected. When the receiving means receives from the imaging device, based on the notification, the second video is displayed on the display unit by adding a visual effect to the inappropriately exposed portion. Display device.
前記制御手段は、前記情報に基づく位置に前記視覚的効果を付加することを特徴とする請求項1に記載の表示装置。 The notification includes information for specifying a location where the exposure is inappropriate in the omnidirectional video,
The display device according to claim 1, wherein the control unit adds the visual effect to a position based on the information.
前記制御手段は、前記選択手段により選択された視覚的効果を含む第3の映像を、前記選択された視覚的効果の表示サイズが前記第2の映像での表示サイズより大きくなるように、前記選択された視覚的効果の表示サイズを変更して前記表示部に表示させることを特徴とする請求項1乃至3のいずれか1項に記載の表示装置。 Selecting means for selecting a visual effect from the second video to which at least one of the visual effects is added;
The control means may control the third video including the visual effect selected by the selection means so that a display size of the selected visual effect is larger than a display size of the second video. 4. The display device according to claim 1, wherein a display size of the selected visual effect is changed and displayed on the display unit. 5.
露出制御要求を受信する受信手段と、
前記受信手段により受信された露出制御要求に応じて、前記撮像手段により撮像された全方位映像の露出を制御する制御手段と、
前記制御手段による前記露出制御要求に応じた露出制御が反映された後の全方位映像において、露出が不適正な箇所を検出する検出手段と、
前記制御手段により前記露出制御要求に応じた露出制御が反映された後の全方位映像を送信すると共に、前記検出手段により前記露出が不適正な箇所が検出された場合に、前記露出が不適正な箇所が存在する旨を示す通知を送信する送信手段と、を有することを特徴とする撮像装置。 Imaging means for capturing an omnidirectional image;
Receiving means for receiving the exposure control request;
Control means for controlling the exposure of the omnidirectional video imaged by the imaging means, according to the exposure control request received by the receiving means,
In the omnidirectional video after the exposure control according to the exposure control request by the control unit is reflected, a detection unit that detects a portion where exposure is inappropriate,
The omnidirectional image after the exposure control according to the exposure control request is reflected by the control unit, and when the detection unit detects the improper exposure, the exposure is improper. And a transmission unit for transmitting a notification indicating that there is a unique part.
撮像装置から全方位映像を受信し、
前記受信された前記全方位映像を表示する際、前記全方位映像の全画角から一部の画角を切り出した第1の映像と、前記全画角の第2の映像とを、表示部に並行して表示させ、
露出制御操作を受け付け、
前記受け付けた露出制御操作に基づいて、露出制御要求を前記撮像装置へ送信し、
前記送信した露出制御要求が反映された全方位映像と、前記露出制御要求が反映された全方位映像において露出が不適正な箇所が存在する旨を示す通知とを前記撮像装置から受信すると、前記通知に基づいて、前記露出が不適正な箇所に視覚的効果を付加して前記第2の映像を前記表示部に表示させることを特徴とする表示装置の制御方法。 A method for controlling a display device, comprising:
Receiving omnidirectional video from the imaging device,
When displaying the received omnidirectional image, a first image obtained by cutting out a part of the angle of view from an entire angle of view of the omnidirectional image, and a second image having the omnidirectional angle are displayed on a display unit. To be displayed in parallel,
Accept exposure control operation,
Based on the received exposure control operation, transmit an exposure control request to the imaging device,
When the transmitted omnidirectional video reflecting the exposure control request and the notification indicating that there is an improperly exposed portion in the omnidirectional video reflecting the exposure control request are received from the imaging device, A control method for a display device, wherein a visual effect is added to a portion where the exposure is inappropriate based on the notification, and the second image is displayed on the display unit.
露出制御要求を受信し、
前記受信された露出制御要求に応じて、前記撮像された全方位映像の露出を制御し、
前記露出制御要求に応じた露出制御が反映された後の全方位映像において、露出が不適正な箇所を検出し、
前記露出制御要求に応じた露出制御が反映された後の全方位映像を送信すると共に、前記露出が不適正な箇所が検出された場合に、前記露出が不適正な箇所が存在する旨を示す通知を送信する、ことを特徴とする撮像装置の制御方法。 A method for controlling an imaging device that captures an omnidirectional video,
Receiving an exposure control request,
According to the received exposure control request, controlling the exposure of the captured omnidirectional video,
In the omnidirectional image after the exposure control according to the exposure control request is reflected, the portion where the exposure is inappropriate is detected,
While transmitting the omnidirectional image after the exposure control according to the exposure control request is reflected, and when the location where the exposure is inappropriate is detected, it indicates that the location where the exposure is inappropriate exists. A method for controlling an imaging device, comprising: transmitting a notification.
前記撮像装置は、
全方位映像を撮像する撮像手段と、
露出制御要求を受信する第1の受信手段と、
前記受信手段により受信された露出制御要求に応じて、前記撮像手段により撮像された全方位映像の露出を制御する第1の制御手段と、
前記第1の制御手段により前記露出制御要求に応じた露出制御が反映された後の全方位映像において、露出が不適正な箇所を検出する検出手段と、
前記第1の制御手段により前記露出制御要求に応じた露出制御が反映された後の全方位映像を送信すると共に、前記検出手段により前記露出が不適正な箇所が検出された場合に、前記露出が不適正な箇所が存在する旨を示す通知を送信する第1の送信手段と、を有し、
前記表示装置は、
前記撮像装置から全方位映像を受信する第2の受信手段と、
表示部と、
前記第2の受信手段により受信された前記全方位映像を表示する際、前記全方位映像の全画角から一部の画角を切り出した第1の映像と、前記全画角の第2の映像とを、前記表示部に並行して表示させる第2の制御手段と、
露出制御操作を受け付ける受け付け手段と、
前記受け付け手段により受け付けられた露出制御操作に基づいて、露出制御要求を前記へ送信する第2の送信手段と、を有し、
前記第2の制御手段は、前記第2の送信手段により送信された露出制御要求が反映された全方位映像と、前記露出制御要求が反映された全方位映像において露出が不適正な箇所が存在する旨を示す通知を前記第2の受信手段が前記撮像装置から受信すると、前記露出が不適正な箇所に視覚的効果を付加して前記第2の映像を前記表示部に表示させることを特徴とする撮像システム。
An imaging system having an imaging device and a display device capable of communicating with the imaging device,
The imaging device,
Imaging means for capturing an omnidirectional image;
First receiving means for receiving an exposure control request;
First control means for controlling the exposure of the omnidirectional video imaged by the imaging means in response to the exposure control request received by the receiving means;
Detecting means for detecting a portion where exposure is inappropriate in the omnidirectional image after the exposure control according to the exposure control request is reflected by the first control means;
The first control means transmits an omnidirectional image after the exposure control according to the exposure control request is reflected, and the exposure means detects the improperly-exposed portion and detects the exposure. And a first transmission unit that transmits a notification indicating that an inappropriate portion exists,
The display device,
Second receiving means for receiving an omnidirectional image from the imaging device;
A display unit,
When displaying the omnidirectional image received by the second receiving means, a first image obtained by cutting out a part of the angle of view from an entire angle of view of the omnidirectional image, and a second image of the omnidirectional angle Second control means for displaying an image in parallel with the display unit;
Receiving means for receiving an exposure control operation;
And a second transmission unit that transmits an exposure control request to the exposure control operation based on the exposure control operation received by the reception unit.
The second control means includes an omnidirectional image on which the exposure control request transmitted by the second transmission means is reflected, and an inappropriately exposed portion in the omnidirectional image on which the exposure control request is reflected. When the second receiving means receives a notification from the imaging device, the second image is displayed on the display unit by adding a visual effect to the inappropriately exposed portion. Imaging system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018127645A JP6766100B2 (en) | 2018-07-04 | 2018-07-04 | Display devices, imaging devices, and their control methods, programs, imaging systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018127645A JP6766100B2 (en) | 2018-07-04 | 2018-07-04 | Display devices, imaging devices, and their control methods, programs, imaging systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020010111A true JP2020010111A (en) | 2020-01-16 |
JP6766100B2 JP6766100B2 (en) | 2020-10-07 |
Family
ID=69152516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018127645A Active JP6766100B2 (en) | 2018-07-04 | 2018-07-04 | Display devices, imaging devices, and their control methods, programs, imaging systems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6766100B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7418134B1 (en) | 2022-10-19 | 2024-01-19 | キヤノン株式会社 | Optical system and imaging device equipped with the same |
-
2018
- 2018-07-04 JP JP2018127645A patent/JP6766100B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7418134B1 (en) | 2022-10-19 | 2024-01-19 | キヤノン株式会社 | Optical system and imaging device equipped with the same |
Also Published As
Publication number | Publication date |
---|---|
JP6766100B2 (en) | 2020-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101899877B1 (en) | Apparatus and method for improving quality of enlarged image | |
JP6924079B2 (en) | Information processing equipment and methods and programs | |
JP6482696B2 (en) | Display control apparatus, display control method, and program | |
CN109218606B (en) | Image pickup control apparatus, control method thereof, and computer readable medium | |
CN109479091B (en) | Method for setting image shot by PTZ camera and device for same | |
JP2016208307A (en) | Image processing apparatus, control method therefor, and program | |
KR20190075654A (en) | Electronic device comprising plurality of cameras and method for operating therepf | |
JP2014042160A (en) | Display terminal, setting method of target area of moving body detection and program | |
KR20180129667A (en) | Display control apparatus, display control method, and storage medium | |
JP2010093783A (en) | Image capturing apparatus and imaging system | |
CN111787224B (en) | Image acquisition method, terminal device and computer-readable storage medium | |
JP2014042357A (en) | Imaging device and image processing device | |
US9681036B2 (en) | Imaging apparatus, imaging system, imaging method, and computer program | |
JP6766100B2 (en) | Display devices, imaging devices, and their control methods, programs, imaging systems | |
CN108810326B (en) | Photographing method and device and mobile terminal | |
JP5479850B2 (en) | Moving image creating apparatus and moving image creating method | |
JP6445831B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2013232830A (en) | Image processing system, image processing device, image processing method, and image processing program | |
JP6004978B2 (en) | Subject image extraction device and subject image extraction / synthesis device | |
KR20110090623A (en) | Home network terminal being capable of tracking face and method thereof | |
JP5718502B2 (en) | Image creating apparatus and image creating method | |
US9762891B2 (en) | Terminal device, image shooting system and image shooting method | |
JP2007306464A (en) | Photographing control method, apparatus and program | |
CN110881102B (en) | Image capturing apparatus, control method of image capturing apparatus, and computer readable medium | |
JP7075272B2 (en) | Image processing equipment, information display equipment, control methods, and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190625 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200916 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6766100 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |