JP2016021206A - Display device, display system, display method and display program - Google Patents

Display device, display system, display method and display program Download PDF

Info

Publication number
JP2016021206A
JP2016021206A JP2014145619A JP2014145619A JP2016021206A JP 2016021206 A JP2016021206 A JP 2016021206A JP 2014145619 A JP2014145619 A JP 2014145619A JP 2014145619 A JP2014145619 A JP 2014145619A JP 2016021206 A JP2016021206 A JP 2016021206A
Authority
JP
Japan
Prior art keywords
image
persons
distance
display
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014145619A
Other languages
Japanese (ja)
Inventor
野口 大輔
Daisuke Noguchi
大輔 野口
和秀 田辺
Kazuhide Tanabe
和秀 田辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014145619A priority Critical patent/JP2016021206A/en
Publication of JP2016021206A publication Critical patent/JP2016021206A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow an image to be displayed at a proper position for a plurality of persons.SOLUTION: A display device has a position detection unit that detects the position of a person in a predetermined range including a display area, a distance calculation unit that calculates distance among a plurality of persons if the plurality of persons were detected, and an output control unit that allows one or more image(s) to be displayed according to the distance in the display area.SELECTED DRAWING: Figure 1

Description

本発明は、表示領域に画像を表示させる表示装置、表示システム、表示方法及び表示プログラムに関する。   The present invention relates to a display device, a display system, a display method, and a display program that display an image in a display area.

従来から、会議中のプレゼンテーションにおける資料の表示や、店舗における各種コンテンツの表示等に利用される表示装置が知られている。また、従来の表示装置では、画面の大型化に伴い、画面の中に表示中の画面を縮小した画像を表示させ、この画像を介して表示中の画面に対する操作を行わせることが知られている。   2. Description of the Related Art Conventionally, display devices used for displaying materials in a presentation during a meeting, displaying various contents in a store, and the like are known. In addition, with conventional display devices, it is known that, as the screen size increases, an image obtained by reducing the displayed screen is displayed on the screen, and an operation on the displayed screen is performed via this image. Yes.

例えば特許文献1には、映像表示部において、複数のユーザの近傍にアプリケーションプログラムの制御を行うウィンドウをそれぞれ表示させ、ウィンドウの表示位置をユーザの動きに追従させる技術が開示されている。この技術では、ユーザ間の距離が適正距離未満になると、ユーザ毎のウィンドウが重ならないように表示させる。   For example, Patent Literature 1 discloses a technique in which a window for controlling an application program is displayed in the vicinity of a plurality of users in a video display unit, and the display position of the window follows the user's movement. In this technique, when the distance between users becomes less than the appropriate distance, the windows for each user are displayed so as not to overlap.

上述した従来の技術では、例えば複数の人物同士が隣り合うように並んだ状態となった場合等に、各人物に対して適切な位置に画像(ウィンドウ)を表示させることが困難である。   In the conventional technology described above, it is difficult to display an image (window) at an appropriate position for each person, for example, when a plurality of persons are arranged side by side.

開示の技術では、表示領域を含む所定範囲内における人物の位置を検知する位置検知部と、検知された人物が複数であったとき、複数の人物の間の距離を算出する距離算出部と、前記表示領域において、前記距離に応じて1又は複数の画像を表示させる出力制御部と、を有する。   In the disclosed technology, a position detection unit that detects the position of a person within a predetermined range including a display area, and a distance calculation unit that calculates a distance between a plurality of persons when there are a plurality of detected persons, An output control unit configured to display one or a plurality of images according to the distance in the display area.

開示の技術は、複数の人物にとって適切な位置に画像を表示させることができる。   The disclosed technology can display an image at an appropriate position for a plurality of persons.

第一の実施形態の概要を説明する図である。It is a figure explaining the outline | summary of 1st embodiment. 第一の実施形態の表示装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the display apparatus of 1st embodiment. 第一の実施形態の表示装置の機能構成を説明する図である。It is a figure explaining the functional structure of the display apparatus of 1st embodiment. 画像の統合と合成を説明する図である。It is a figure explaining integration and composition of images. 第一の実施形態の表示装置の動作を説明するシーケンス図である。It is a sequence diagram explaining operation | movement of the display apparatus of 1st embodiment. 距離算出部による人物間の距離の算出を説明する図である。It is a figure explaining calculation of the distance between persons by a distance calculation part. 第一及び第二の閾値を設定する画面の一例を示す図である。It is a figure which shows an example of the screen which sets a 1st and 2nd threshold value. 判定部及び画像生成部の処理を説明するフローチャートである。It is a flowchart explaining the process of a determination part and an image generation part. 統合した画像の拡大について説明する図である。It is a figure explaining expansion of the integrated image. 統合した画像の表示領域の調整について説明する図である。It is a figure explaining the adjustment of the display area of the integrated image. 画面の操作指示を行う画像について説明する図であるIt is a figure explaining the image which performs the operation instruction of a screen. 統合された画面を分離させない場合を説明する図である。It is a figure explaining the case where an integrated screen is not separated. 統合前の画面の何れか一方が操作指示を受け付けている場合の統合を説明する図である。It is a figure explaining integration in case any one of the screens before integration receives the operation instruction. 統合後の画面が操作指示を受け付けている場合の分離を説明する第一の図である。It is a 1st figure explaining separation when the screen after integration receives the operation instruction. 統合後の画面が操作指示を受け付けている場合の分離を説明する第二の図である。It is a 2nd figure explaining separation when the screen after integration receives the operation instruction. 第二の実施形態の表示装置の機能構成を説明する図である。It is a figure explaining the functional structure of the display apparatus of 2nd embodiment. 対応情報の一例を示す図である。It is a figure which shows an example of correspondence information. 人物解析部、対応画像選択部、判定部及び画像生成部の処理を説明するフローチャートである。It is a flowchart explaining the process of a person analysis part, a corresponding | compatible image selection part, a determination part, and an image generation part. 表示システムの第一の例を示す図である。It is a figure which shows the 1st example of a display system. 表示システムの第二の例を示す図である。It is a figure which shows the 2nd example of a display system. 表示システムの第三の例を示す図である。It is a figure which shows the 3rd example of a display system. サーバのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a server.

(第一の実施形態)
以下に、図面を参照して第一の実施形態の概要について説明する。
(First embodiment)
The outline of the first embodiment will be described below with reference to the drawings.

本実施形態では、表示装置により表示される画面を撮像した際に、撮像画像において複数の人物が検知されると、各人物に対応した画像を画面内の人物の近傍に表示させる。   In the present embodiment, when a plurality of persons are detected in the captured image when the screen displayed by the display device is captured, an image corresponding to each person is displayed in the vicinity of the person on the screen.

また本実施形態では、撮像画像において、複数の人物同士が近づいて隣り合うような状態となった場合、各人物に対応した2つの画像を統合又は合成して表示させる。さらに本実施形態では、撮像画像において、隣り合った状態のユーザ同士が離れたとき、統合又は合成された画像を分離させ、統合前の人物毎の画像に戻す。尚、本実施形態における統合及び合成の詳細は後述する。   Further, in the present embodiment, when a plurality of persons come close to each other and are adjacent to each other in the captured image, two images corresponding to each person are integrated or combined and displayed. Furthermore, in this embodiment, when adjacent users are separated from each other in the captured image, the integrated or combined image is separated and returned to the image for each person before integration. Details of integration and synthesis in this embodiment will be described later.

図1は、第一の実施形態の概要を説明する図である。本実施形態では、表示装置により表示される画面10は、例えばプレゼンテーション等に用いられる大型の画面とした。本実施形態における大型の画面とは、例えば画面の前に立った人物が、画面上で操作指示を行おうとした場合に、手の届かない範囲が存在する程度の大きさの画面である。   FIG. 1 is a diagram for explaining the outline of the first embodiment. In the present embodiment, the screen 10 displayed by the display device is a large screen used for, for example, a presentation. The large screen in the present embodiment is a screen having such a size that there is a range that cannot be reached when a person standing in front of the screen tries to give an operation instruction on the screen.

図1は、画面10が撮像装置により撮像された際の撮像画像の例を示している。図1(A)は、画面10を含む撮像画像1Aにおいて、画面10の前にいる複数の人物A、Bが検知された状態の例を示している。図1(B)は、撮像画像1Bにおいて、人物A、Bが互いに近づき、二人の人物の間の距離が所定の第一の閾値未満となった状態を示している。図1(C)は、撮像画像1Cにおいて、人物A、Bが互いに離れ、人物の間の距離が所定の第二の閾値以上となった状態を示している。第一の閾値と第二の閾値の詳細は後述する。   FIG. 1 illustrates an example of a captured image when the screen 10 is captured by the imaging device. FIG. 1A shows an example of a state in which a plurality of persons A and B in front of the screen 10 are detected in the captured image 1A including the screen 10. FIG. 1B shows a state in which the persons A and B are close to each other and the distance between the two persons is less than a predetermined first threshold in the captured image 1B. FIG. 1C illustrates a state in which the persons A and B are separated from each other and the distance between the persons is equal to or greater than a predetermined second threshold in the captured image 1C. Details of the first threshold and the second threshold will be described later.

図1(A)では、人物Aに対応する画像11と、人物Bに対応する画像12とが、人物A、Bの近傍にそれぞれ表示されている。ここで言う近傍とは、例えば、撮像画像中の画面10において、人物と重なる位置であっても良い。より具体的には、例えば画面10において、人物の頭部と重なる位置であっても良いし、人物の腕により指し示すことが可能な位置であっても良い。   In FIG. 1A, an image 11 corresponding to the person A and an image 12 corresponding to the person B are displayed in the vicinity of the persons A and B, respectively. The vicinity mentioned here may be, for example, a position overlapping with a person on the screen 10 in the captured image. More specifically, for example, the position on the screen 10 may overlap with the person's head, or the position that can be indicated by the person's arm.

本実施形態では、図1(A)の状態から人物A、Bの間の距離が縮まると、画像11、12は、それぞれ人物A、Bの動きに追従して画面10内を移動する。そして、本実施形態では、図1(B)に示すように、人物A、Bの間の距離が第一の閾値未満となったとき、各人物に対応する画像11、12を1つの画像13に統合又は合成される。   In the present embodiment, when the distance between the persons A and B decreases from the state of FIG. 1A, the images 11 and 12 move in the screen 10 following the movements of the persons A and B, respectively. In the present embodiment, as shown in FIG. 1B, when the distance between the persons A and B is less than the first threshold, the images 11 and 12 corresponding to the persons are displayed as one image 13. Integrated or synthesized.

以下の実施形態の説明では、複数の人物間の距離が第一の閾値未満となった状態を、人物同士が隣り合う状態と呼ぶ。   In the following description of the embodiment, a state in which the distance between a plurality of persons is less than a first threshold is referred to as a state in which the persons are adjacent to each other.

また、本実施形態では、図1(C)に示すように人物A、Bが離れ、人物A、Bの間の距離が第二の閾値以上となった場合、画像13を人物A、Bに対応する画像11、12に分離させ、画面10内で画像11、12を人物A、Bの動きに追従させる。すなわち、本実施形態では、画像の表示領域を含む所定範囲内において、複数の人物が検知された場合に、表示領域内における複数の人物の間の距離に応じた位置に、複数の人物に対応した画像を表示させる。尚、画像の表示領域とは、画面10であり、所定範囲とは、撮像される範囲である。   In the present embodiment, as shown in FIG. 1C, when the persons A and B are separated and the distance between the persons A and B is equal to or greater than the second threshold, the image 13 is changed to the persons A and B. The corresponding images 11 and 12 are separated, and the images 11 and 12 are made to follow the movements of the persons A and B in the screen 10. That is, in the present embodiment, when a plurality of persons are detected within a predetermined range including the image display area, the plurality of persons are handled at positions corresponding to the distances between the plurality of persons in the display area. Display the selected image. The image display area is the screen 10, and the predetermined range is an imaged range.

本実施形態では、以上の処理により、画面10の前に複数の人物が存在した場合に、複数の人物にとって適切な位置に画像を表示させることができる。   In the present embodiment, when there are a plurality of persons in front of the screen 10 by the above processing, an image can be displayed at an appropriate position for the plurality of persons.

以下に、本実施形態の表示装置について説明する。図2は、第一の実施形態の表示装置のハードウェア構成の一例を示す図である。   Below, the display apparatus of this embodiment is demonstrated. FIG. 2 is a diagram illustrating an example of a hardware configuration of the display device according to the first embodiment.

本実施形態の表示装置100は、それぞれバスBで相互に接続されている入力装置101、出力装置102、補助記憶装置103、メモリ装置104、演算処理装置105、インターフェース装置106及び撮像装置107を含む。   The display device 100 according to the present embodiment includes an input device 101, an output device 102, an auxiliary storage device 103, a memory device 104, an arithmetic processing device 105, an interface device 106, and an imaging device 107, which are mutually connected by a bus B. .

入力装置101は、表示装置100に対して各種信号を入力するために用いられる。具体的には、入力装置101は、例えば表示装置100に対する操作を受け付ける操作部材等であっても良い。出力装置102は、表示させる画像を出力するために用いられものであり、画像データを表示する装置である。具体的には、例えば表示装置100がプロジェクタ等であった場合には、出力装置102は画像を投影するための投影機構等である。また、例えば表示装置100がディスプレイを有する情報処理装置等であった場合には、出力装置102は、ディスプレイである。   The input device 101 is used for inputting various signals to the display device 100. Specifically, the input device 101 may be, for example, an operation member that receives an operation on the display device 100. The output device 102 is used to output an image to be displayed, and is a device that displays image data. Specifically, for example, when the display device 100 is a projector or the like, the output device 102 is a projection mechanism or the like for projecting an image. For example, when the display device 100 is an information processing device having a display, the output device 102 is a display.

補助記憶装置103は、例えば表示装置100にインストールされた表示プログラムが格納されても良い。また補助記憶装置103は、例えば出力装置102から出力される画像の画像データ等が格納されても良い。   For example, the auxiliary storage device 103 may store a display program installed in the display device 100. Further, the auxiliary storage device 103 may store image data of an image output from the output device 102, for example.

メモリ装置104は、演算処理装置105等が処理を行う際の一時保存等に利用される。演算処理装置105は、表示プログラムに従って、後述するような各種処理を実現する。   The memory device 104 is used for temporary storage or the like when the arithmetic processing device 105 or the like performs processing. The arithmetic processing unit 105 realizes various processes as described later according to the display program.

インターフェース装置106は、モデム、LANカード等を含み、ネットワークに接続する為に用いられるまた。撮像装置107は、出力装置102により表示される画面を含む所定範囲を撮像する。本実施形態の撮像装置107は、具体的には例えば静止画や動画を撮像するカメラ等である。   The interface device 106 includes a modem, a LAN card, etc., and is used for connecting to a network. The imaging device 107 images a predetermined range including the screen displayed by the output device 102. Specifically, the imaging apparatus 107 according to the present embodiment is a camera that captures a still image or a moving image, for example.

本実施形態の表示プログラムは、表示装置100を制御する各種プログラムの少なくとも一部である。表示プログラムは例えば記録媒体の配布やネットワークからのダウンロード等によって提供される。表示プログラムを記録した記録媒体は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   The display program of this embodiment is at least a part of various programs that control the display device 100. The display program is provided, for example, by distributing a recording medium or downloading from a network. The recording medium on which the display program is recorded is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk; Various types of recording media, such as a semiconductor memory for recording data, can be used.

また、ネットワークからダウンロードされた表示プログラムは、インターフェース装置106を介して補助記憶装置103にインストールされる。   The display program downloaded from the network is installed in the auxiliary storage device 103 via the interface device 106.

本実施形態の表示装置100は、例えば画像を投影させて画面を表示させるプロジェクタであっても良い。また本実施形態の表示装置は、出力装置102として、大型のディスプレイ等を有する情報処理装置であっても良い。   The display device 100 of the present embodiment may be a projector that displays an image by projecting an image, for example. In addition, the display device of the present embodiment may be an information processing device having a large display or the like as the output device 102.

次に、図3を参照して本実施形態の表示装置100の機能について説明する。図3は、第一の実施形態の表示装置の機能構成を説明する図である。   Next, functions of the display device 100 of the present embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a functional configuration of the display device according to the first embodiment.

本実施形態の表示装置100は、座標記憶部210と、画像記憶部220とを有する。座標記憶部210は、撮像装置107により撮像された画像から検知された人物の座標を示す座標情報が格納される。すなわち、本実施形態の座標記憶部210は、座標情報の集合体である。   The display device 100 according to the present embodiment includes a coordinate storage unit 210 and an image storage unit 220. The coordinate storage unit 210 stores coordinate information indicating the coordinates of a person detected from an image captured by the imaging device 107. That is, the coordinate storage unit 210 of this embodiment is a collection of coordinate information.

本実施形態の画像記憶部220は、出力装置102により出力される画像の画像データが格納される。すなわち、本実施形態の画像記憶部220は、画像データの集合体である。   The image storage unit 220 of the present embodiment stores image data of an image output from the output device 102. That is, the image storage unit 220 of the present embodiment is a collection of image data.

また、本実施形態の表示装置100は、表示プログラム200がインストールされており、演算処理装置105が表示プログラム200を実行することで、以下に説明する各部の機能が実現される。   In addition, the display device 100 according to the present embodiment has the display program 200 installed therein, and the arithmetic processing device 105 executes the display program 200, thereby realizing the functions of the units described below.

本実施形態の表示装置100は、位置検知部230、座標管理部240、距離算出部250、判定部260、画像生成部270、出力制御部280、撮像制御部290を有する。   The display device 100 according to the present embodiment includes a position detection unit 230, a coordinate management unit 240, a distance calculation unit 250, a determination unit 260, an image generation unit 270, an output control unit 280, and an imaging control unit 290.

位置検知部230は、撮像装置107により撮像された撮像画像の中から人物の存在を検知する。具体的には位置検知部230は、例えば顔認証技術等により、撮像画像か人物を検知する。   The position detection unit 230 detects the presence of a person from the captured image captured by the imaging device 107. Specifically, the position detection unit 230 detects a captured image or a person using, for example, face authentication technology.

また、位置検知部230は、撮像画像において人物が検知された場合、人物識別情報(以下、人物ID)を生成し、撮像画像における人物の位置を示す座標情報に人物IDを付与する。本実施形態の位置検知部230は、例えば撮像画像において複数の人物が検知された場合、検知された人物毎に人物IDを生成し、人物毎の座標情報に、人物IDを付与する。よって、本実施形態では、撮像画像において複数の人物が検知された場合には、人物毎に座標情報が管理される。   In addition, when a person is detected in the captured image, the position detection unit 230 generates person identification information (hereinafter referred to as a person ID) and assigns the person ID to the coordinate information indicating the position of the person in the captured image. For example, when a plurality of persons are detected in the captured image, the position detection unit 230 according to the present embodiment generates a person ID for each detected person and assigns the person ID to the coordinate information for each person. Therefore, in this embodiment, when a plurality of persons are detected in the captured image, coordinate information is managed for each person.

座標管理部240は、人物IDが付与された座標情報を座標記憶部210へ格納する。また、座標管理部240は、座標記憶部210からの人物IDと座標情報の読み出しも行う。   The coordinate management unit 240 stores the coordinate information assigned with the person ID in the coordinate storage unit 210. The coordinate management unit 240 also reads out the person ID and coordinate information from the coordinate storage unit 210.

距離算出部250は、複数の人物が検知された場合に、各人物の座標情報を取得し、座標情報から人物間の距離を算出する。人物間の距離の算出の詳細は後述する。   The distance calculation unit 250 acquires coordinate information of each person when a plurality of persons are detected, and calculates a distance between the persons from the coordinate information. Details of the calculation of the distance between persons will be described later.

判定部260は、距離算出部250により算出された人物間の距離と第一の閾値に基づき、各人物に対応した画像の統合又は合成を行うか否かを判定する。また、判定部260は、人物間の距離と第二の閾値に基づき、統合又は合成された画像を分離させるか否かを判定する。   Based on the distance between the persons calculated by the distance calculation section 250 and the first threshold value, the determination section 260 determines whether to integrate or combine images corresponding to each person. In addition, the determination unit 260 determines whether or not to separate the combined or combined images based on the distance between persons and the second threshold value.

画像生成部270は、出力装置102により出力される画像データを生成し、画像記憶部220へ格納する。より具体的には、画像生成部270は、画面10に表示される画像の画像データと、人物Aに対応する画像11の画像データと、人物Bに対応する画像12の画像データと、画像11、12を統合又は合成した画像13とを生成する(図1参照)。   The image generation unit 270 generates image data output from the output device 102 and stores it in the image storage unit 220. More specifically, the image generation unit 270 displays the image data of the image displayed on the screen 10, the image data of the image 11 corresponding to the person A, the image data of the image 12 corresponding to the person B, and the image 11. , 12 are integrated or synthesized (see FIG. 1).

出力制御部280は、出力装置102を制御して、画像記憶部220に格納された画像データを表示させる。   The output control unit 280 controls the output device 102 to display the image data stored in the image storage unit 220.

撮像制御部290は、撮像装置107による撮像を制御する。具体的には、撮像制御部290は、所定の間隔毎に画面10を含む画像を撮像するように、撮像装置107を制御する。   The imaging control unit 290 controls imaging by the imaging device 107. Specifically, the imaging control unit 290 controls the imaging device 107 so that an image including the screen 10 is captured at predetermined intervals.

次に、図4を参照し、本実施形態の画像生成部270における画像の「統合」と「合成」について説明する。図4は、画像の統合と合成を説明する図である。   Next, with reference to FIG. 4, “integration” and “synthesis” of images in the image generation unit 270 of this embodiment will be described. FIG. 4 is a diagram for explaining integration and synthesis of images.

図4(A)は、画像の統合を説明する図である。本実施形態では、2つの画像11Aと画像12Aとを1つの領域にとりまとめることを画像の「統合」と呼ぶ。   FIG. 4A is a diagram illustrating image integration. In the present embodiment, combining the two images 11A and 12A into one area is referred to as “integration” of images.

表示装置100において、画像が統合される場合とは、画面10に表示される画像11Aと画像12Aが、例えば画面10に表示される画像の縮小画像である場合である。すなわち、画像が統合される場合とは、画像生成部270が画像11Aを生成する際の元となる画像データと、画像12Aを生成する際の元となる画像データとが同一の場合である。   In the display device 100, the case where the images are integrated is a case where the image 11A and the image 12A displayed on the screen 10 are reduced images of the image displayed on the screen 10, for example. That is, the case where the images are integrated is a case where the image data that is the source when the image generation unit 270 generates the image 11A and the image data that is the source when the image 12A is generated are the same.

画像11A及び画像12Aの元となる画像データが同一の場合とは、例えば、画像11A及び画像12Aが、画面10を縮小した、画面10に対する操作を行う操作画面の画像である場合等が考えられる。この場合、画像生成部270が画像11A及び画像12Aを生成する際の元となる画像データは、両方とも画面10内に表示された画像の画像データである。   The case where the image data that is the basis of the image 11A and the image 12A is, for example, a case where the image 11A and the image 12A are images of an operation screen for performing an operation on the screen 10 by reducing the screen 10. . In this case, the image data that is the basis when the image generation unit 270 generates the image 11 </ b> A and the image 12 </ b> A is both image data of the image displayed in the screen 10.

本実施形態の表示装置100では人物Aと人物Bの間の距離が第一の閾値未満になると、画像生成部270により、画像11Aと画像12Aとを統合させた統合画像13Aを生成し、出力制御部280により画面10内に表示させる。   In the display device 100 of the present embodiment, when the distance between the person A and the person B becomes less than the first threshold, the image generation unit 270 generates an integrated image 13A in which the image 11A and the image 12A are integrated and outputs the integrated image 13A. It is displayed in the screen 10 by the control unit 280.

図4(B)は、画像の合成を説明する図である。本実施形態では、1つの領域内に、少なくとも画像11Bの一部と画像12Bの一部とを表示させることを画像の「合成」と呼ぶ。本実施形態では、例えば1つの領域に画像11B及び12Bの全体を表示させても良い。   FIG. 4B is a diagram for explaining image composition. In the present embodiment, displaying at least a part of the image 11B and a part of the image 12B in one area is referred to as “synthesis” of the images. In the present embodiment, for example, the entire images 11B and 12B may be displayed in one area.

表示装置100において、画像が合成される場合とは、例えば画面10に表示される画像11Bが人物Aに対応した画像であり、画像12Bが人物Bに対応した画像である場合等である。すなわち、画像が合成される場合とは、画像生成部270が画像11Bを生成する際の元となる画像データと、画像12Bを生成する際の元となる画像データとが異なる場合である。   In the display device 100, the case where the images are combined is, for example, the case where the image 11B displayed on the screen 10 is an image corresponding to the person A and the image 12B is an image corresponding to the person B. That is, the case where the images are combined is a case where the image data that is the source when the image generation unit 270 generates the image 11B is different from the image data that is the source when the image 12B is generated.

画像11B及び画像12Bの元となる画像データが異なる場合とは、例えば、画像11B及び画像12Bのそれぞれが、人物A及び人物Bのそれぞれに対応する広告画像である場合等が考えられる。   The case where the image data from which the image 11B and the image 12B are based is different may be, for example, the case where the image 11B and the image 12B are advertisement images corresponding to the person A and the person B, respectively.

本実施形態の表示装置100では、人物Aと人物Bの間の距離が第二の閾値未満になると、画像11Bと画像12Bとを合成した合成画像13Bを画面10内に表示させる。   In the display device 100 of the present embodiment, when the distance between the person A and the person B is less than the second threshold value, the composite image 13B obtained by combining the image 11B and the image 12B is displayed on the screen 10.

以下の本実施形態の説明では、複数の人物間の距離が第二の閾値未満となったときに、画像を統合するものとして説明する。   In the following description of the present embodiment, it is assumed that images are integrated when the distance between a plurality of persons becomes less than a second threshold.

図5を参照して、本実施形態の表示装置100の動作を説明する。図5は、第一の実施形態の表示装置の動作を説明するシーケンス図である。尚、図5は、撮像画像において複数の人物が検知された場合のシーケンス図である。   With reference to FIG. 5, the operation of the display device 100 of the present embodiment will be described. FIG. 5 is a sequence diagram for explaining the operation of the display device according to the first embodiment. FIG. 5 is a sequence diagram when a plurality of persons are detected in the captured image.

本実施形態の表示装置100は、人物の検知要求が入力されると、撮像装置107により撮像された撮像画像を取得し、位置検知部230により、人物の検知を行い、検知結果を座標管理部240へ通知する(ステップS501)。より具体的には、位置検知部230は、検知した人物毎に人物IDを生成し、生成した人物IDと、撮像画像における人物の位置を示す座標情報と、を座標管理部240へ通知する。   When a person detection request is input, the display device 100 according to the present embodiment acquires a captured image captured by the imaging device 107, detects a person by the position detection unit 230, and outputs the detection result to a coordinate management unit. 240 is notified (step S501). More specifically, the position detection unit 230 generates a person ID for each detected person, and notifies the coordinate management unit 240 of the generated person ID and coordinate information indicating the position of the person in the captured image.

座標管理部240は、人物IDと座標情報の通知を受けとると、座標記憶部210へ人物IDと座標情報とを格納し、座標記憶部210を更新する(ステップS502)。続いて座標管理部240は、人物IDと座標情報とを画像生成部270へ渡し、画像生成部270に対し、座標情報に基づく位置に表示させる画像の画像データの生成指示を通知する(ステップS503)。   Upon receiving the notification of the person ID and the coordinate information, the coordinate management unit 240 stores the person ID and the coordinate information in the coordinate storage unit 210, and updates the coordinate storage unit 210 (step S502). Subsequently, the coordinate management unit 240 passes the person ID and the coordinate information to the image generation unit 270, and notifies the image generation unit 270 of an instruction to generate image data of an image to be displayed at a position based on the coordinate information (step S503). ).

画像生成部270は、この通知を受けて、判定部260へ画像の統合を行うか否か、または画像の分離を行うか否かの判定を依頼する(ステップS504)。判定部260は、この依頼を受けて、距離算出部250に対し、人物間の距離の算出要求を通知する(ステップS505)。尚、本実施形態の判定部260は、距離の算出要求と共に、ステップS501において生成された人物IDを距離算出部250へ通知する。   Upon receiving this notification, the image generation unit 270 requests the determination unit 260 to determine whether to perform image integration or image separation (step S504). In response to this request, the determination unit 260 notifies the distance calculation unit 250 of a request for calculating a distance between persons (step S505). Note that the determination unit 260 of the present embodiment notifies the distance calculation unit 250 of the person ID generated in step S501 together with the distance calculation request.

距離算出部250は、距離の算出要求と人物IDとを受け付けると、座標記憶部210から、受け付けた人物IDと対応する座標情報を取得する(ステップS506)。続いて距離算出部250は、取得した座標情報から、ステップS501で検知された複数の人物間の距離を算出する(ステップS507)。   When receiving the distance calculation request and the person ID, the distance calculation unit 250 acquires coordinate information corresponding to the received person ID from the coordinate storage unit 210 (step S506). Subsequently, the distance calculation unit 250 calculates the distances between the plurality of persons detected in step S501 from the acquired coordinate information (step S507).

続いて距離算出部250は、算出した距離を判定部260へ通知する(ステップS508)。判定部260は、算出された人物間の距離と、第一及び第二の閾値とに基づき、生成する画像を判定し、その結果を画像生成部270へ通知する(ステップS509)。画像生成部270は、判定部260からの通知を受けて、画像記憶部220から画像データを取得する(ステップS510)。そして画像生成部270は、画面10に表示させる画像の画像データを生成する(ステップS511)。尚、ステップS511で生成する画像は、検知された各人物に対応する画像である。続いて画像生成部270は、生成した画像データを画像記憶部220に格納する(ステップS512)。尚、画像生成部270は、ステップS501で生成された人物IDを付与した画像データを画像記憶部220に格納しても良い。   Subsequently, the distance calculation unit 250 notifies the determination unit 260 of the calculated distance (step S508). The determination unit 260 determines an image to be generated based on the calculated distance between persons and the first and second threshold values, and notifies the image generation unit 270 of the result (step S509). In response to the notification from the determination unit 260, the image generation unit 270 acquires image data from the image storage unit 220 (step S510). Then, the image generation unit 270 generates image data of an image to be displayed on the screen 10 (step S511). Note that the image generated in step S511 is an image corresponding to each detected person. Subsequently, the image generation unit 270 stores the generated image data in the image storage unit 220 (step S512). The image generation unit 270 may store the image data with the person ID generated in step S501 in the image storage unit 220.

続いて画像生成部270は、出力制御部280に対し、画像データの表示要求を行う(ステップS513)。出力制御部280は、表示要求を受け付けると、画像記憶部220から、ステップS511において画像生成部270が生成した画像データを取得する(ステップS514)。尚、画像生成部270は、出力制御部280へ表示要求を通知する際に、画像データに付与された人物IDも共に通知しても良い。出力制御部280は、表示要求と共に通知された人物IDに基づき、画像記憶部220から対応する画像データを取得しても良い。続いて出力制御部280は、取得した画像データを画面10に表示させ(ステップS515)、処理を終了する。   Subsequently, the image generation unit 270 makes a display request for image data to the output control unit 280 (step S513). When receiving the display request, the output control unit 280 acquires the image data generated by the image generation unit 270 in step S511 from the image storage unit 220 (step S514). Note that when the image generation unit 270 notifies the output control unit 280 of a display request, the image generation unit 270 may also notify the person ID assigned to the image data. The output control unit 280 may acquire the corresponding image data from the image storage unit 220 based on the person ID notified together with the display request. Subsequently, the output control unit 280 displays the acquired image data on the screen 10 (step S515), and ends the process.

尚、距離算出部250と、判定部260と、画像生成部270によるステップS506からステップS512までの処理の詳細は後述する。   Details of the processing from step S506 to step S512 by the distance calculation unit 250, the determination unit 260, and the image generation unit 270 will be described later.

次に、図6を参照して本実施形態の距離算出部250による人物間の距離の算出について説明する。図6は、距離算出部による人物間の距離の算出を説明する図である。   Next, calculation of the distance between persons by the distance calculation unit 250 of the present embodiment will be described with reference to FIG. FIG. 6 is a diagram for explaining the calculation of the distance between persons by the distance calculation unit.

図6では、距離算出部250は、撮像画像60において検知された人物Aと人物Bの間の距離Lを算出する。   In FIG. 6, the distance calculation unit 250 calculates the distance L between the person A and the person B detected in the captured image 60.

本実施形態の距離算出部250は、例えば撮像装置107が所定間隔毎に撮像した過去数回分の撮像画像における人物Aと人物Bの位置から、各撮像画像毎の人物A、B間の距離を算出し、最も短い距離から距離Lを算出しても良い。   The distance calculation unit 250 of the present embodiment calculates the distance between the persons A and B for each captured image from the positions of the persons A and B in the past several captured images captured by the imaging device 107 at predetermined intervals, for example. The distance L may be calculated from the shortest distance.

図6の例では、過去3回分の撮像画像において、人物A、Bのそれぞれの座標情報を取得する。図6において、1回目の撮像画像における人物A、Bの位置を示す矩形領域をそれぞれA1、B1とした。同様に、図6において2回目の撮像画像における人物A、Bの位置を示す矩形領域をそれぞれA2、B2とし、3回目の撮像画像における人物A、Bの位置を示す矩形領域をそれぞれA3、B3とした。本実施形態の矩形領域は、撮像画像60において矩形を形成する4点の座標により示される。   In the example of FIG. 6, the coordinate information of each of the persons A and B is acquired in the past three captured images. In FIG. 6, rectangular areas indicating the positions of the persons A and B in the first captured image are denoted as A1 and B1, respectively. Similarly, in FIG. 6, the rectangular areas indicating the positions of the persons A and B in the second captured image are A2 and B2, respectively, and the rectangular areas indicating the positions of the persons A and B in the third captured image are A3 and B3, respectively. It was. The rectangular area of the present embodiment is indicated by the coordinates of four points that form a rectangle in the captured image 60.

図6の例では、矩形領域A3と矩形領域B2との間の距離が最も短い。よって、距離算出部250は、矩形領域A3における辺61と、矩形領域B2において辺61と最も近い位置にある辺62との間の距離を、距離Lとしても良い。   In the example of FIG. 6, the distance between the rectangular area A3 and the rectangular area B2 is the shortest. Therefore, the distance calculation unit 250 may set the distance L between the side 61 in the rectangular area A3 and the side 62 closest to the side 61 in the rectangular area B2.

以上のように、本実施形態では、複数の撮像画像を用いて人物A、B間の距離を算出することで、距離の算出の精度を向上させることができる。尚、距離算出部250は、例えば1枚の撮像画像から人物A、B間の距離を算出しても良い。   As described above, in the present embodiment, the distance calculation accuracy can be improved by calculating the distance between the persons A and B using a plurality of captured images. The distance calculation unit 250 may calculate the distance between the persons A and B from one captured image, for example.

次に、図7を参照して、第一の閾値と第二の閾値について説明する。本実施形態において、判定部260は、距離算出部250により算出された距離が第一の閾値未満のとき、人物A、Bと対応する画像11、12を統合する。本実施形態において、第一及び第二の閾値は、表示装置100の入力装置101等において、予め設定されても良い。   Next, the first threshold value and the second threshold value will be described with reference to FIG. In the present embodiment, the determination unit 260 integrates the images 11 and 12 corresponding to the persons A and B when the distance calculated by the distance calculation unit 250 is less than the first threshold. In the present embodiment, the first and second threshold values may be set in advance in the input device 101 of the display device 100 or the like.

図7は、第一及び第二の閾値を設定する画面の一例を示す図である。   FIG. 7 is a diagram illustrating an example of a screen for setting the first and second threshold values.

図7に示す画面70では、統合を判定する第一の閾値と、分離を判定する第二の閾値とを入力させる入力欄71を有する。   The screen 70 illustrated in FIG. 7 includes an input field 71 for inputting a first threshold value for determining integration and a second threshold value for determining separation.

また、画面70では、第一及び第二の閾値の入力欄に加え、統合と分離について、定性的な設定を入力させる選択欄72、73、74を有する。本実施形態の表示装置100では、選択欄72〜74に対応した第一及び第二の閾値が予め設定されていても良い。   In addition to the first and second threshold value input fields, the screen 70 has selection fields 72, 73, and 74 for inputting qualitative settings for integration and separation. In the display device 100 of the present embodiment, first and second threshold values corresponding to the selection fields 72 to 74 may be set in advance.

例えば画面70において、選択欄73が選択された場合、判定部260は、「近め」と対応する第一及び第二の閾値を設定しても良い。同様に、例えば選択欄74が選択された場合、判定部260は、「遠め」と対応する第一及び第二の閾値を設定しても良い。   For example, when the selection field 73 is selected on the screen 70, the determination unit 260 may set first and second threshold values corresponding to “near”. Similarly, for example, when the selection column 74 is selected, the determination unit 260 may set the first and second threshold values corresponding to “distant”.

また、本実施形態では、選択欄72〜74に対応する第一及び第二の閾値を、人物に対応した画像11、12の表示領域の広さに応じて変更しても良い。   In the present embodiment, the first and second threshold values corresponding to the selection fields 72 to 74 may be changed according to the size of the display area of the images 11 and 12 corresponding to the person.

例えば人物A、Bと対応した画像11、12の表示領域が広い場合において、選択欄73が選択された場合の第一及び第二の閾値は、この場合と比較して画像11、12の表示領域が狭い場合の第一及び第二の閾値よりも小さい値としても良い。   For example, when the display areas of the images 11 and 12 corresponding to the persons A and B are wide, the first and second threshold values when the selection field 73 is selected are the display values of the images 11 and 12 compared to this case. The value may be smaller than the first and second threshold values when the region is narrow.

さらに、本実施形態では、選択欄72〜74に対応する第一及び第二の閾値を、検知された人物の身長等に応じて設定されても良い。この場合、表示装置100は、人物の身長と、選択欄72〜74に対応する第一及び第二の閾値とを対応付けて記憶しておくことが好ましい。   Furthermore, in the present embodiment, the first and second threshold values corresponding to the selection columns 72 to 74 may be set according to the detected height of the person. In this case, the display device 100 preferably stores the height of the person and the first and second threshold values corresponding to the selection fields 72 to 74 in association with each other.

また、本実施形態では、第一の閾値と第二の閾値が同じ値であっても良いし、異なる値であっても良い。   In the present embodiment, the first threshold value and the second threshold value may be the same value or different values.

次に、図8を参照して、判定部260と、画像生成部270によるステップS506からステップS512までの処理の詳細を説明する。図8は、判定部及び画像生成部の処理を説明するフローチャートである。   Next, details of the processing from step S506 to step S512 by the determination unit 260 and the image generation unit 270 will be described with reference to FIG. FIG. 8 is a flowchart for explaining processing of the determination unit and the image generation unit.

本実施形態の表示装置100において、位置検知部230は撮像画像における人物の検知を行い(ステップS801)、検知した人物が複数か否かを判定する(ステップS802)。ステップS802において、検知した人物が複数であった場合、距離算出部250は、複数の人物間の距離を算出する(ステップS803)。ステップS802において、人物が複数でなかった場合、後述するステップS810へ進む。   In the display device 100 of the present embodiment, the position detection unit 230 detects a person in the captured image (step S801) and determines whether there are a plurality of detected persons (step S802). If there are a plurality of detected persons in step S802, the distance calculation unit 250 calculates a distance between the plurality of persons (step S803). If it is determined in step S802 that there are not a plurality of persons, the process proceeds to step S810 described later.

続いて判定部260は、複数の人物と対応する画像が既に統合されているか否かを判定する(ステップS804)。ステップS804において、画像が統合されている場合、判定部260は、ステップS803で算出された人物間の距離が第二の閾値以上であるか否かを判定する(ステップS805)。   Subsequently, the determination unit 260 determines whether images corresponding to a plurality of persons have already been integrated (step S804). If the images are integrated in step S804, the determination unit 260 determines whether the distance between persons calculated in step S803 is equal to or greater than a second threshold (step S805).

ステップS805において、人物間の距離が第二の閾値以上であった場合、画像生成部270は、統合された画像(統合済みの画像)を統合前の複数の画像に分離した画像データを生成し、生成した画像データを画像記憶部220に格納する(ステップS806)。続いて表示装置100は、出力制御部280により、ステップS806で画像記憶部220に格納された画像データに基づき、統合前の画像を各人物の近傍に表示させ(ステップS807)、処理を終了する。   In step S805, when the distance between persons is equal to or greater than the second threshold, the image generation unit 270 generates image data obtained by separating the integrated image (integrated image) into a plurality of images before integration. The generated image data is stored in the image storage unit 220 (step S806). Subsequently, the display device 100 causes the output control unit 280 to display an image before integration in the vicinity of each person based on the image data stored in the image storage unit 220 in step S806 (step S807), and ends the process. .

ステップS805において、人物間の距離が第二の閾値以上でない場合、出力制御部280は、画像記憶部220に格納された統合済み画像の画像データを表示させ(ステップS808)、処理を終了する。本実施形態の出力制御部280は、統合済みの画像を表示させる際に、複数の人物の位置関係に基づく位置に統合済みの画像を表示させる。具体的には例えば、出力制御部280は、人物間の距離の中間点が統合済みの画像の中心となるように表示させても良い。   If the distance between persons is not equal to or greater than the second threshold value in step S805, the output control unit 280 displays the image data of the integrated image stored in the image storage unit 220 (step S808), and ends the process. When displaying the integrated image, the output control unit 280 of the present embodiment displays the integrated image at a position based on the positional relationship between a plurality of persons. Specifically, for example, the output control unit 280 may display the intermediate point of the distance between persons so as to be the center of the integrated image.

ステップS804において、画像が統合されていない場合、判定部260は、人物間の距離が第一の閾値未満か否かを判定する(ステップS809)。ステップS809において、第一の閾値未満であった場合、画像生成部270は、複数の人物のそれぞれに対応する画像を統合した画像データを生成し、画像記憶部220に格納する(ステップS810)。続いて表示装置100は、出力制御部280により、生成した画像データを表示させ(ステップS811)、処理を終了する。   If the images are not integrated in step S804, the determination unit 260 determines whether the distance between the persons is less than the first threshold (step S809). If it is less than the first threshold value in step S809, the image generation unit 270 generates image data obtained by integrating images corresponding to each of a plurality of persons, and stores it in the image storage unit 220 (step S810). Subsequently, the display device 100 causes the output control unit 280 to display the generated image data (step S811) and ends the process.

ステップS809において、人物間の距離が第一の閾値未満でないとき、画像生成部270は、画像記憶部220に格納された各人物に対応する画像を、出力制御部280により表示させ(ステップS812)、処理を終了する。   In step S809, when the distance between persons is not less than the first threshold, the image generation unit 270 causes the output control unit 280 to display an image corresponding to each person stored in the image storage unit 220 (step S812). The process is terminated.

また、本実施形態の表示装置100は、ステップS802において検知した人物が複数でなかった場合、すなわち検知された人物が一人であった場合、画像生成部270は、画像記憶部220から人物に対応する画像を取得して表示させ(ステップS813)、処理を終了する。   In the display device 100 according to the present embodiment, when there are not a plurality of persons detected in step S802, that is, when the number of detected persons is one, the image generation unit 270 corresponds to the person from the image storage unit 220. An image to be acquired is acquired and displayed (step S813), and the process ends.

本実施形態では、以上のように、撮像画像に複数の人物が検知された場合、複数の人物間の距離に応じて、各人物に対応する画像の統合(合成)と分離を行う。したがって、本実施形態では、例えば複数の人物が隣り合うような状態となった場合に、複数の人物にとって適切な位置に画像を表示させることができる。   In the present embodiment, as described above, when a plurality of persons are detected in the captured image, the images corresponding to the persons are integrated (synthesized) and separated according to the distance between the persons. Therefore, in this embodiment, for example, when a plurality of persons are adjacent to each other, an image can be displayed at an appropriate position for the plurality of persons.

また、本実施形態では、画像生成部270により、人物A、Bのそれぞれと対応した画像を統合する際に、統合した画像を拡大させても良い。図9は、統合した画像の拡大について説明する図である。   In the present embodiment, when the images corresponding to the persons A and B are integrated by the image generation unit 270, the integrated images may be enlarged. FIG. 9 is a diagram for explaining enlargement of an integrated image.

図9において、画像91は人物Aに対応する画像であり、画像92は人物Bに対応する画像である。   In FIG. 9, an image 91 is an image corresponding to the person A, and an image 92 is an image corresponding to the person B.

図9において、画像91、92は、それぞれが一人の人物に対応したものであるため、画像91、92の画像の表示領域の大きさは、一人の人物が閲覧したり操作したりする際に適した大きさとなっている。   In FIG. 9, since images 91 and 92 each correspond to one person, the size of the display area of the images 91 and 92 is determined when one person views or operates the image. It is a suitable size.

これに対し、画像91と画像92とを統合した画像93は、人物A、Bの二人が閲覧したり操作したりする画像である。そこで、本実施形態の画像生成部270は、表示領域が画像91、91の表示領域よりも大きくなるように、画像93の画像データを生成する。   On the other hand, an image 93 obtained by integrating the image 91 and the image 92 is an image that two persons A and B view and operate. Therefore, the image generation unit 270 according to the present embodiment generates image data of the image 93 so that the display area is larger than the display areas of the images 91 and 91.

本実施形態では、このように統合後の画像を拡大して表示領域を大きくすることで、複数の人物が統合後の画像を閲覧したり操作したりする際の利便性を向上させる。   In this embodiment, the display area is enlarged by enlarging the image after integration in this way, thereby improving convenience when a plurality of persons browse or operate the image after integration.

また、本実施形態では、画像91、91を統合した後の人物Aと人物Bとの距離に応じて、統合後の画像93の表示領域の大きさを調整しても良い。   In the present embodiment, the size of the display area of the image 93 after integration may be adjusted according to the distance between the person A and the person B after the images 91 and 91 are integrated.

図10は、統合した画像の表示領域の調整について説明する図である。   FIG. 10 is a diagram illustrating adjustment of the display area of the integrated image.

本実施形態において、画像生成部270は、図9で説明した画像93の画像データを生成した後に、人物Aと人物Bとの間の距離Lに応じて画像93の表示領域の大きさを調整しても良い。   In the present embodiment, the image generation unit 270 adjusts the size of the display area of the image 93 according to the distance L between the person A and the person B after generating the image data of the image 93 described in FIG. You may do it.

例えば、画像生成部270は、画像93を表示させた後に、距離Lが第一の所定値よりも小さくなった場合、画像93の表示領域を狭くした画像94の画像データを生成して表示させても良い。また、画像生成部270は、画像93を表示させた後に、距離Lが第二の所定値よりも大きくなった場合、画像生成部270は、画像93の表示領域を広くした画像95の画像データを生成して表示させても良い。   For example, when the distance L becomes smaller than the first predetermined value after the image 93 is displayed, the image generation unit 270 generates and displays the image data of the image 94 in which the display area of the image 93 is narrowed. May be. When the distance L becomes larger than the second predetermined value after the image generation unit 270 displays the image 93, the image generation unit 270 displays the image data of the image 95 in which the display area of the image 93 is widened. May be generated and displayed.

本実施形態では、このように画像91、92の統合後に、距離Lに応じて画像93の表示領域を調整することで、人物A、Bの立ち位置に基づき閲覧又は操作のしやすい大きさに統合された画像を表示させることができる。したがって、本実施形態では、複数の人物と対応する画像が統合された状態において、複数の人物のそれぞれに対して適切な位置に画像を表示させることができる。   In the present embodiment, after the images 91 and 92 are integrated as described above, the display area of the image 93 is adjusted according to the distance L, so that the size can be easily browsed or operated based on the standing positions of the persons A and B. An integrated image can be displayed. Therefore, in this embodiment, an image can be displayed at an appropriate position for each of the plurality of persons in a state where the images corresponding to the plurality of persons are integrated.

尚、ここで第一及び第二の所定値と、第一及び第二の閾値との関係は、第一の所定値<第二の所定値<第一及び第二の閾値とする。また、図10の例では、画像93の表示領域の調整に用いる所定値を2つとしたが、これに限定されない。統合された画像の表示領域は、例えば距離Lに応じて段階的に調整されても良い。   Here, the relationship between the first and second predetermined values and the first and second threshold values is defined as first predetermined value <second predetermined value <first and second threshold values. In the example of FIG. 10, two predetermined values are used for adjusting the display area of the image 93, but the present invention is not limited to this. The display area of the integrated image may be adjusted stepwise according to the distance L, for example.

次に、図11を参照し、本実施形態の表示装置100がプロジェクタであり、且つ画面に表示される複数の人物と対応する画像が、画面の操作指示を行う画面の画像である場合について説明する。   Next, with reference to FIG. 11, a case will be described in which the display device 100 of the present embodiment is a projector, and images corresponding to a plurality of persons displayed on the screen are screen images for instructing operation of the screen. To do.

図11は、画面の操作指示を行う画像について説明する図である。図11に示す表示装置100は、プロジェクタである。また、図11に示す画面110は、表示装置100により投影されたプレゼンテーション用の画面である。   FIG. 11 is a diagram for explaining an image for instructing operation of a screen. A display device 100 shown in FIG. 11 is a projector. A screen 110 illustrated in FIG. 11 is a presentation screen projected by the display device 100.

図11の例は、人物A、Bが二人でプレゼンテーションを行う場面を想定したものである。すなわち、図11の例では、人物Aが画面111を介して画面110に対する操作を行い、人物Bが画面112を介して画面110に対する操作を行う場面を想定したものである。   The example in FIG. 11 assumes a scene in which two people A and B make a presentation. That is, in the example of FIG. 11, it is assumed that the person A performs an operation on the screen 110 via the screen 111 and the person B performs an operation on the screen 110 via the screen 112.

画面111、112は、画面110を縮小した画面であり、画面110上に表示され、人物A、Bのそれぞれから画面110に対する操作指示を受け付ける。すなわち、図11において画面111、112は、同一の画面である。図11の表示装置100は、画面111、112において受け付けた操作指示に従って、画面110に表示させる画像を遷移させる。   The screens 111 and 112 are reduced screens of the screen 110, are displayed on the screen 110, and accept operation instructions for the screen 110 from the persons A and B, respectively. That is, screens 111 and 112 in FIG. 11 are the same screen. The display device 100 in FIG. 11 changes the image to be displayed on the screen 110 in accordance with the operation instruction received on the screens 111 and 112.

尚、本実施形態の表示装置100は、例えば撮像画像における人物A、Bの動作を解析し、人物A、Bの動作と対応した操作の種類に基づき、画面110の画像を遷移させても良い。   Note that the display device 100 according to the present embodiment may, for example, analyze the movements of the persons A and B in the captured image, and transition the image on the screen 110 based on the type of operation corresponding to the movements of the persons A and B. .

より具体的には、表示装置100は、例えば人物の動作と、操作指示とを対応付けた操作テーブル等を有していても良い。この場合、表示装置100は、人物A、Bの動作が、例えば画面110を横方向にスライドさせるような動作であった場合、操作テーブルを参照し、該当する動作と対応する操作指示に基づき画面110の表示を制御しても良い。   More specifically, the display device 100 may include, for example, an operation table in which a person's action is associated with an operation instruction. In this case, when the actions of the persons A and B are, for example, actions that slide the screen 110 in the horizontal direction, the display device 100 refers to the operation table and displays the screen based on the corresponding operation instruction. The display of 110 may be controlled.

また、図11では、画面110をプロジェクタにより投影された画面としたが、これに限定されない。画面110は、例えばテレビ等に表示されても良い。画面110が、例えばテレビ等のディスプレイであり、画面110が操作受付機能を有する場合には、画面111、112において受け付けた操作指示を表示装置100本体へ送信しても良い。ディスプレイから表示装置100への操作指示の送信は、例えばディスプレイと表示装置100を接続する有線ケーブや無線LAN(Local Area Network)等を介して行われても良い。   In FIG. 11, the screen 110 is a screen projected by a projector, but the present invention is not limited to this. The screen 110 may be displayed on, for example, a television. When the screen 110 is a display such as a television, for example, and the screen 110 has an operation reception function, the operation instructions received on the screens 111 and 112 may be transmitted to the display device 100 main body. The transmission of the operation instruction from the display to the display device 100 may be performed, for example, via a wired cable connecting the display and the display device 100, a wireless LAN (Local Area Network), or the like.

画像生成部270は、人物Aと人物Bとの間の距離Lが第一の閾値未満になると、画面111、112を統合した画面を生成し、表示させる。   When the distance L between the person A and the person B becomes less than the first threshold, the image generation unit 270 generates and displays a screen in which the screens 111 and 112 are integrated.

次に、図12乃至図15を参照し、画面111、112又は画面121が操作指示を受け付けている最中における画面の分離又は統合について説明する。   Next, with reference to FIGS. 12 to 15, screen separation or integration while the screens 111, 112, or the screen 121 are accepting operation instructions will be described.

本実施形態の表示装置100は、画面121が操作指示を受け付けている最中に、人物A、B間の距離Lが第一の閾値以上となった場合、画面121を分離させない。以下に、統合させた画面121を分離させない場合について説明する。   The display device 100 according to the present embodiment does not separate the screen 121 when the distance L between the persons A and B is equal to or larger than the first threshold while the screen 121 is accepting the operation instruction. Hereinafter, a case where the integrated screen 121 is not separated will be described.

図12は、統合された画面を分離させない場合を説明する図である。   FIG. 12 is a diagram illustrating a case where the integrated screen is not separated.

本実施形態の表示装置100は、画面111、112が統合された画面121が操作指示を受け付けている最中に、人物Aと人物Bとの間の距離Lが第一の閾値以上となった場合には、画面121を分離させない。そして、本実施形態の表示装置100は、画面121に、画面121が操作中であることを示すメッセージ122を表示させても良い。   In the display device 100 according to the present embodiment, the distance L between the person A and the person B becomes equal to or larger than the first threshold while the screen 121 in which the screens 111 and 112 are integrated is accepting the operation instruction. In this case, the screen 121 is not separated. The display device 100 according to the present embodiment may display a message 122 on the screen 121 indicating that the screen 121 is being operated.

具体的には、表示装置100は、画面121が含まれる撮像画像の解析において、人物A、B間の距離Lが第一の閾値以上であり、且つ画面121が操作指示の受け付け中であった場合、画像生成部270は、メッセージ122を画面121に表示させる。また、本実施形態の表示装置100では、例えば図示しないスピーカー等を有しており、メッセージ122の表示と共に、音声にて画面121が操作中であることを人物A、Bに通知しても良い。さらに、表示装置100は、音声のみで画面121が操作中であることを人物A、Bに通知しても良い。   Specifically, in the analysis of the captured image including the screen 121, the display device 100 has the distance L between the persons A and B equal to or greater than the first threshold and the screen 121 is accepting an operation instruction. In this case, the image generation unit 270 displays the message 122 on the screen 121. In addition, the display device 100 according to the present embodiment includes, for example, a speaker (not shown), and may notify the persons A and B that the screen 121 is being operated by voice together with the display of the message 122. . Further, the display device 100 may notify the persons A and B that the screen 121 is being operated only by voice.

本実施形態の表示装置100は、画面111又は画面112の何れか一方が操作指示を受け付けている最中に、人物A、B間の距離Lが第一の閾値未満となった場合、画面111、112の統合まで、操作指示を受けていない画面の方の輝度を低下させる。   When the distance L between the persons A and B is less than the first threshold while either the screen 111 or the screen 112 is accepting an operation instruction, the display device 100 according to the present embodiment displays the screen 111. , 112, the brightness of the screen that has not received an operation instruction is reduced.

図13は、統合前の画面の何れか一方が操作指示を受け付けている場合の統合を説明する図である。   FIG. 13 is a diagram for explaining integration when any one of the screens before integration accepts an operation instruction.

図13では、画面111が人物Aによる操作指示を受け付けている最中であり、画面112は操作指示を受け付けていない状態である。この状態において、人物A、B間の距離Lが第一の閾値未満となった場合、画像生成部270は、操作指示を受け付けていない画面112の輝度を低下させ、画面112に対する操作指示の受け付けを停止する。   In FIG. 13, the screen 111 is in the process of accepting an operation instruction by the person A, and the screen 112 is in a state of not accepting the operation instruction. In this state, when the distance L between the persons A and B is less than the first threshold, the image generation unit 270 reduces the brightness of the screen 112 that has not received an operation instruction, and accepts the operation instruction for the screen 112. To stop.

具体的には、表示装置100は、画面111、112が含まれる撮像画像において、画面111と対応する人物Aの動作のみを解析し、操作指示として受け付けても良い。   Specifically, the display device 100 may analyze only the operation of the person A corresponding to the screen 111 in the captured image including the screens 111 and 112 and accept it as an operation instruction.

図13の例において、画像生成部270は、例えば画面112の輝度を半減させても良い。図13では、画面112の輝度を低下させることで、画面112と対応する人物Bに対し、画面112に対する操作指示の受け付けが不可となったこと認知させることができる。また、本実施形態では、画面112に対して操作指示の受け付けが不可となった旨のメッセージを表示させても良い。   In the example of FIG. 13, the image generation unit 270 may halve the luminance of the screen 112, for example. In FIG. 13, by reducing the brightness of the screen 112, the person B corresponding to the screen 112 can recognize that it is impossible to accept an operation instruction for the screen 112. In the present embodiment, a message indicating that the operation instruction cannot be accepted may be displayed on the screen 112.

図13の例では、画像生成部270は、距離Lが第一の閾値未満となった場合に、画面111に対する操作指示の受け付けが終了するまで、画面111と輝度を低くした画面112とを並べて表示させても良い。そして、画像生成部270は、操作指示の受け付けが終了してから画面111、112を統合させても良い。   In the example of FIG. 13, when the distance L is less than the first threshold, the image generation unit 270 arranges the screen 111 and the screen 112 with reduced brightness until the reception of the operation instruction for the screen 111 is completed. It may be displayed. Then, the image generation unit 270 may integrate the screens 111 and 112 after the reception of the operation instruction is completed.

このようにすれば、人物Aは、画面111に対する操作指示を継続して行うことができる。   In this way, the person A can continue to give operation instructions to the screen 111.

次に、図14、15を参照し、統合された画面121が操作指示を受け付けている最中に、距離Lが第二の閾値以上となった場合について説明する。   Next, with reference to FIGS. 14 and 15, the case where the distance L is equal to or greater than the second threshold while the integrated screen 121 is accepting an operation instruction will be described.

図14は、統合後の画面が操作指示を受け付けている場合の分離を説明する第一の図である。   FIG. 14 is a first diagram illustrating separation when the screen after integration accepts an operation instruction.

表示装置100は、画面121が人物Aからの操作指示を受け付けている最中に、人物Bが人物Aから離れ、距離Lが第二の閾値以上となった場合、画面121を分離させた後の画面112の輝度を低減させ、画面112に対する操作指示の受け付けを行わない。また、表示装置100は、画面121から分離された画面111に対しての操作指示は、画面121が表示されていたときから継続して受け付ける。   The display device 100 separates the screen 121 when the person B moves away from the person A and the distance L is equal to or greater than the second threshold while the screen 121 is accepting an operation instruction from the person A. The brightness of the screen 112 is reduced, and operation instructions for the screen 112 are not accepted. Further, the display device 100 continuously accepts operation instructions for the screen 111 separated from the screen 121 from when the screen 121 is displayed.

本実施形態では、以上のように画面121を分離させることで、画面121において操作を行っていた人物Aの操作指示を継続して受け付けることができる。   In the present embodiment, by separating the screen 121 as described above, the operation instruction of the person A who has performed the operation on the screen 121 can be continuously received.

図15は、統合後の画面が操作指示を受け付けている場合の分離を説明する第二の図である。   FIG. 15 is a second diagram for explaining separation when the integrated screen accepts an operation instruction.

図15の例では、統合された画面121が操作指示を受け付けている最中に、距離Lが第二の閾値以上となった場合、画面121が受け付けていた操作指示を破棄し、その旨を画面121に表示させた後に、画面121を画面111と画面112へ分離させる。   In the example of FIG. 15, when the distance L is equal to or greater than the second threshold while the integrated screen 121 is accepting the operation instruction, the operation instruction accepted by the screen 121 is discarded, and the fact is displayed. After being displayed on the screen 121, the screen 121 is separated into the screen 111 and the screen 112.

図15の例では、画面121において人物Aが、操作指示123を行っている。この状態で、距離Lが第二の閾値以上になると、画像生成部270は、画面121に、画面121を分離させる旨、操作指示が無効となる旨のメッセージ124を表示させる。   In the example of FIG. 15, the person A issues an operation instruction 123 on the screen 121. In this state, when the distance L becomes equal to or greater than the second threshold, the image generation unit 270 displays a message 124 on the screen 121 indicating that the screen 121 is to be separated and that the operation instruction is invalid.

そして、画像生成部270は、画面121を画面111と画面112へ分離させる。このとき、人物Aによる操作指示123は、画面111において無効とされ、画面111は操作指示123を受け付ける前の画面111として表示される。   Then, the image generation unit 270 separates the screen 121 into the screen 111 and the screen 112. At this time, the operation instruction 123 by the person A is invalidated on the screen 111, and the screen 111 is displayed as the screen 111 before the operation instruction 123 is received.

したがって、図15の例では、統合後の画面121で行った操作指示が破棄された後に、再度分離後の画面111で行うことができる。   Therefore, in the example of FIG. 15, after the operation instruction performed on the screen 121 after integration is discarded, it can be performed again on the screen 111 after separation.

以上のように、本実施形態は、表示装置100により表示される大型の画面を撮像した撮像画像内に複数の人物が検知された場合において、複数の人物間の距離に応じて、画像の統合及び分離を行う。したがって、本実施形態によれば、複数の人物にとって適切な位置に画像を表示させることができる。   As described above, in the present embodiment, when a plurality of persons are detected in a captured image obtained by capturing a large screen displayed by the display device 100, image integration is performed according to the distance between the plurality of persons. And separation. Therefore, according to the present embodiment, it is possible to display an image at an appropriate position for a plurality of persons.

本実施形態は、次に示される捉え方が可能である。すなわち、本実施形態の表示装置100は、画面10を含む撮像画像1A、1B、1C、60内における人物の位置を検知する位置検知部230と、検知された人物が複数であったとき、複数の人物の間の距離Lを算出する距離算出部250と、画面10において、距離Lに応じた位置に複数の人物と対応する画像11、12、13、91、92、93を表示させる出力制御部280と、を有する。   This embodiment can be understood as shown below. That is, the display device 100 according to the present embodiment includes a position detection unit 230 that detects the position of a person in the captured images 1A, 1B, 1C, and 60 including the screen 10, and a plurality of detected persons. A distance calculation unit 250 that calculates a distance L between the two persons, and output control for displaying images 11, 12, 13, 91, 92, and 93 corresponding to a plurality of persons at positions corresponding to the distance L on the screen 10. Part 280.

また、本実施形態は、出力制御部280により表示させる画像データを生成する画像生成部270を有し、画像生成部270は、距離Lが、第一の閾値未満であったとき、複数の人物のそれぞれに対応する複数の画像を統合した画像の画像データを生成する。   The present embodiment also includes an image generation unit 270 that generates image data to be displayed by the output control unit 280. The image generation unit 270 includes a plurality of persons when the distance L is less than the first threshold. Image data of an image obtained by integrating a plurality of images corresponding to the respective images is generated.

また、本実施形態において、画像生成部270は、画像を統合した画像データを生成した後に、距離Lが、第二の閾値以上となったとき、統合した画像データを複数の人物のそれぞれに対応する複数の画像の画像データに分離する。   In the present embodiment, the image generation unit 270 corresponds to each of a plurality of persons when the distance L is equal to or greater than the second threshold after generating the image data in which the images are integrated. The image data is separated into a plurality of images.

また、本実施形態において、画像生成部270は、距離Lが、前記第一の閾値未満の場合において、距離Lに応じたサイズの前記統合した画像の画像データを生成する。   In this embodiment, the image generation unit 270 generates image data of the integrated image having a size corresponding to the distance L when the distance L is less than the first threshold.

また、本実施形態において、複数の人物と対応する画像は、画面110に表示された画面の操作指示を受け付ける画像111、112であり、統合した画像において操作指示を受け付けている最中に、距離Lが第二の閾値以上となったとき、出力制御部280は、統合した画像データの分離を行わないメッセージ122を出力する。   In the present embodiment, images corresponding to a plurality of persons are images 111 and 112 that accept screen operation instructions displayed on the screen 110, and the distance is displayed while the operation instructions are accepted in the integrated image. When L is equal to or greater than the second threshold, the output control unit 280 outputs a message 122 that does not separate the integrated image data.

また、本実施形態において、複数の人物のそれぞれに対応する複数の画像111、112のうち、少なくとも一の画像において操作指示を受け付けている最中に、距離Lが第一の閾値未満となったとき、画像生成部270は、操作指示を受け付けている最中の画像以外の画像の輝度を低下させる。   Further, in the present embodiment, the distance L is less than the first threshold while receiving an operation instruction in at least one of the plurality of images 111 and 112 corresponding to each of a plurality of persons. At this time, the image generation unit 270 reduces the luminance of an image other than the image that is being accepted.

本実施形態の表示方法は、表示装置100により実行される表示方法であって、画面10を含む撮像画像1A、1B、1C、60内における人物の位置を検知する位置検知手順であるステップS501と、検知された人物が複数であったとき、複数の人物の間の距離Lを算出する距離算出手順であるステップS507と、画面10において、距離Lに応じた位置に複数の人物と対応する画像を表示させる出力制御手順であるステップS515と、を有する。   The display method of the present embodiment is a display method executed by the display device 100, and is a position detection procedure for detecting the position of a person in the captured images 1A, 1B, 1C, and 60 including the screen 10. When there are a plurality of detected persons, in step S507, which is a distance calculation procedure for calculating the distance L between the plurality of persons, and an image corresponding to the plurality of persons at positions corresponding to the distance L on the screen 10. Step S515, which is an output control procedure for displaying.

本実施形態の表示プログラム200は、画面10を含む撮像画像1A、1B、1C、60内における人物の位置を検知する位置検知ステップS501と、検知された人物が複数であったとき、複数の人物の間の距離Lを算出する距離算出ステップS507と、画面10において、距離Lに応じた位置に複数の人物と対応する画像を表示させる出力制御ステップS515と、を表示装置100に実行させる。   The display program 200 according to the present embodiment includes a position detection step S501 for detecting the positions of persons in the captured images 1A, 1B, 1C, and 60 including the screen 10, and a plurality of persons when the detected persons are plural. The display device 100 is caused to execute a distance calculation step S507 for calculating a distance L between the two and an output control step S515 for displaying images corresponding to a plurality of persons at positions corresponding to the distance L on the screen 10.

(第二の実施形態)
以下に図面を参照して第二の実施形態について説明する。第二の実施形態では、人物に対応する画像を、例えば広告等の各種のコンテンツとした。以下の第二の実施形態の説明において、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
(Second embodiment)
The second embodiment will be described below with reference to the drawings. In the second embodiment, the image corresponding to the person is, for example, various contents such as an advertisement. In the following description of the second embodiment, those having the same functional configuration as in the first embodiment are given the same reference numerals as those used in the description of the first embodiment, and the description thereof is omitted. To do.

図16は、第二の実施形態の表示装置の機能構成を説明する図である。   FIG. 16 is a diagram illustrating a functional configuration of the display device according to the second embodiment.

本実施形態の表示装置100Aでは、撮像画像において検知された複数の人物の特徴を示す情報を取得し、特徴を示す情報と対応付けられた画像を各人物と対応する画像として表示させる。尚、以下の説明では、人物の特徴を示す情報を特徴情報と呼ぶ。   In the display device 100A of the present embodiment, information indicating the characteristics of a plurality of persons detected in the captured image is acquired, and an image associated with the information indicating the characteristics is displayed as an image corresponding to each person. In the following description, information indicating the characteristics of a person is called feature information.

本実施形態の表示装置100Aは、表示プログラム200Aがインストールされている。本実施形態の表示装置100Aは、対応情報記憶部225と、人物解析部295と、対応画像選択部298と、を有する。対応情報記憶部225は、特徴情報と、表示させる画像との対応付けを示す情報の集合体である。以下の説明では、特徴情報と、表示させる画像との対応付けを示す情報を対応情報と呼ぶ。対応情報の詳細は後述する。   A display program 200A is installed in the display device 100A of the present embodiment. The display device 100A according to the present embodiment includes a correspondence information storage unit 225, a person analysis unit 295, and a correspondence image selection unit 298. The correspondence information storage unit 225 is a collection of information indicating the correspondence between the feature information and the image to be displayed. In the following description, information indicating the correspondence between the feature information and the image to be displayed is referred to as correspondence information. Details of the correspondence information will be described later.

人物解析部295は、撮像画像内の人物の画像を解析し、撮像画像に写っている人物の特徴情報を取得する。   The person analysis unit 295 analyzes an image of a person in the captured image and acquires feature information of the person shown in the captured image.

対応画像選択部298は、対応情報記憶部225を参照し、特徴情報と対応する画像を選択する。   The corresponding image selection unit 298 refers to the correspondence information storage unit 225 and selects an image corresponding to the feature information.

図17は、対応情報の一例を示す図である。本実施形態の対応情報記憶部225に格納された対応情報は、情報の項目として、特徴情報と画像の種類とを有し、両者が対応付けられている。図17に示す特徴情報は、例えば人物の性別や人物の身長等を含む。   FIG. 17 is a diagram illustrating an example of correspondence information. The correspondence information stored in the correspondence information storage unit 225 of the present embodiment includes feature information and image type as information items, and the two are associated with each other. The feature information shown in FIG. 17 includes, for example, the gender of a person and the height of the person.

図17では、例えば人物の性別が男性である場合には、画像の種類として「ネクタイ」、「スーツ」等が対応付けられており、性別が女性である場合には、画像の種類として「化粧品」が対応付けられている。   In FIG. 17, for example, when the gender of a person is male, “tie”, “suit”, and the like are associated as image types, and when the gender is female, the type of image is “cosmetics”. "Is associated.

また、人物の身長が100センチ未満である場合、人物が子供であることが想定される。よって、図17の例では、人物の特徴情報として、身長が100センチ未満の場合には、画像の種類として「おもちゃ」等を対応付けている。   Moreover, when the height of a person is less than 100 cm, it is assumed that the person is a child. Therefore, in the example of FIG. 17, when the height is less than 100 cm as the person characteristic information, “toy” or the like is associated as the image type.

本実施形態の対応画像選択部298は、例えば撮像画像内に人物が検知されると、対応情報記憶部225を参照し、画像記憶部220に格納された画像データのうち、特徴情報と対応する種類の画像の画像データを選択し、画像生成部270に渡しても良い。   For example, when a person is detected in the captured image, the corresponding image selection unit 298 according to the present embodiment refers to the correspondence information storage unit 225 and corresponds to the feature information in the image data stored in the image storage unit 220. Image data of a type of image may be selected and passed to the image generation unit 270.

次に、図18を参照して本実施形態の表示装置100Aにおける人物解析部295、対応画像選択部298、判定部260、画像生成部270の動作を説明する。   Next, operations of the person analysis unit 295, the corresponding image selection unit 298, the determination unit 260, and the image generation unit 270 in the display device 100A of the present embodiment will be described with reference to FIG.

図18は、人物解析部、対応画像選択部、判定部及び画像生成部の処理を説明するフローチャートである。   FIG. 18 is a flowchart for explaining processing of the person analysis unit, the corresponding image selection unit, the determination unit, and the image generation unit.

本実施形態の表示装置100Aは、位置検知部230は撮像画像における人物の検知を行(ステップS1801)。撮像画像において人物が検知されると、人物解析部295は、撮像画像に含まれる人物の画像を解析し、特徴情報を取得する(ステップS1802)。特徴情報は、人物IDと、人物の座標情報と共に保持されても良い。   In the display device 100A of the present embodiment, the position detection unit 230 detects a person in the captured image (step S1801). When a person is detected in the captured image, the person analysis unit 295 analyzes the image of the person included in the captured image and acquires feature information (step S1802). The feature information may be held together with the person ID and the person coordinate information.

ステップS1803からステップS1806までの処理は、複数の人物に対応する画像を合成する点を除いて、図8のステップS802からステップS805までの処理と同様であるから、説明を省略する。   The processing from step S1803 to step S1806 is the same as the processing from step S802 to step S805 in FIG. 8 except that the images corresponding to a plurality of persons are combined, and thus the description thereof is omitted.

ステップS1806において距離Lが第二の閾値以上であった場合、画像生成部270は、合成された画像を、各人物の特徴情報に対応した画像に分離する(ステップS1807)。そして表示装置100Aは、出力制御部280により、分離された画像データを表示させ(ステップS1808)、処理を終了する。   If the distance L is greater than or equal to the second threshold value in step S1806, the image generation unit 270 separates the synthesized image into images corresponding to the feature information of each person (step S1807). The display device 100A causes the output control unit 280 to display the separated image data (step S1808), and ends the process.

ステップS1806において、距離Lが第二の閾値未満であった場合、表示装置100Aは、合成済みの画像を表示させ(ステップS1809)、処理を終了する。尚、合成済みの画像は、複数の人物のそれぞれの特徴情報と対応した画像を合成した画像である。   In step S1806, when the distance L is less than the second threshold value, the display device 100A displays the combined image (step S1809) and ends the process. The synthesized image is an image obtained by synthesizing images corresponding to the feature information of a plurality of persons.

ステップS1810の処理は、図8のステップS809の処理と同様であるから説明を省略する。   The processing in step S1810 is the same as the processing in step S809 in FIG.

ステップS1810にておいて、距離Lが第一の閾値未満の場合、表示装置100Aは、画像生成部270により各人物の特徴情報と対応する画像を合成し(ステップS1811)、出力制御部280により合成した画像を表示させ(ステップS1812)、処理を終了する。   In step S1810, when the distance L is less than the first threshold, the display device 100A combines the image corresponding to the feature information of each person by the image generation unit 270 (step S1811), and the output control unit 280. The synthesized image is displayed (step S1812), and the process ends.

ステップS1810において、距離Lが第一の閾値以上の場合、表示装置100Aは、対応画像選択部298により、対応情報記憶部225を取得し、各人物の特徴情報と対応
する画像を選択し、出力制御部280により選択された画像を人物毎に表示させる(ステップS1813)。
In step S1810, when the distance L is equal to or greater than the first threshold, the display device 100A acquires the correspondence information storage unit 225 by using the correspondence image selection unit 298, selects an image corresponding to the feature information of each person, and outputs it. The image selected by the control unit 280 is displayed for each person (step S1813).

また、ステップS1803において、検知された人物が複数でない場合、対応画像選択部298は、検知された人物の特徴情報と対応する画像を選択し、出力制御部280により選択された画像を表示させる(ステップS1814)。   If the detected person is not plural in step S1803, the corresponding image selection unit 298 selects an image corresponding to the detected feature information of the person, and displays the image selected by the output control unit 280 ( Step S1814).

以上のように、本実施形態では、撮像画像において検知された人物の特徴情報に対応した画像を表示させる。したがって、本実施形態では、例えば検知された人物がより関心を抱きやすい画像を表示させることができ、例えば広告画像の表示等においては、宣伝効果を高めることができる。   As described above, in the present embodiment, an image corresponding to the feature information of the person detected in the captured image is displayed. Therefore, in the present embodiment, for example, an image in which a detected person is more likely to be interested can be displayed. For example, in displaying an advertisement image, the advertising effect can be enhanced.

本実施形態は、次に示される捉え方が可能である。すなわち、本実施形態の表示装置100Aは、画面10を含む撮像画像1A、1B、1C、60内における人物の位置を検知する位置検知部230と、検知された人物が複数であったとき、複数の人物の間の距離Lを算出する距離算出部250と、画面10において、距離Lに応じた位置に複数の人物と対応する画像を表示させる出力制御部280と、を有し、撮像画像1A、1B、1C、60は、撮像装置107により撮像された撮像画像であって、撮像画像1A、1B、1C、60を解析して検知された人物の特徴情報を取得する人物解析部295と、特徴情報と、画像の種類とが対応付けられた対応情報を参照し、特徴情報と対応する画像を複数の人物と対応する画像11、12、13として選択する対応画像選択部298と、を有する。   This embodiment can be understood as shown below. That is, the display device 100A of the present embodiment includes a position detection unit 230 that detects the position of a person in the captured images 1A, 1B, 1C, and 60 including the screen 10, and a plurality of detected persons when there are a plurality of detected persons. A distance calculation unit 250 that calculates a distance L between the persons, and an output control unit 280 that displays images corresponding to a plurality of persons at positions corresponding to the distance L on the screen 10, and the captured image 1A 1B, 1C, and 60 are captured images captured by the imaging device 107, and a person analysis unit 295 that acquires the feature information of the person detected by analyzing the captured images 1A, 1B, 1C, and 60, A correspondence image selection unit 298 that refers to correspondence information in which feature information and image types are associated, and selects images corresponding to the feature information as images 11, 12, and 13 corresponding to a plurality of persons. You .

(第三の実施形態)
以下に図面を参照して第三の実施形態について説明する。第三の実施形態は、第一及び第二の実施形態の表示装置の有する構成の一部を外部装置に設けた点が、第一及び第二の実施形態と相違する。以下の第三の実施形態の説明では、第一及び第二の実施形態と同様の機能構成を有するものには、第一及び第二の説明で用いた符号と同様の符号を付与し、その説明を省略する。
(Third embodiment)
The third embodiment will be described below with reference to the drawings. The third embodiment is different from the first and second embodiments in that a part of the configuration of the display device of the first and second embodiments is provided in the external device. In the following description of the third embodiment, the same reference numerals as those used in the first and second descriptions are given to those having the same functional configuration as those in the first and second embodiments. Description is omitted.

図19は、表示システムの第一の例を示す図である。本実施形態の表示システム300は、ネットワークを介して接続された表示装置100Bとサーバ400とを含む。   FIG. 19 is a diagram illustrating a first example of the display system. A display system 300 according to the present embodiment includes a display device 100B and a server 400 connected via a network.

表示システム300において、表示装置100Bには、表示プログラム200がインストールされており、座標記憶部210と画像記憶部220を有していない。本実施形態では、座標記憶部210と、画像記憶部220とがサーバ400に設けられている。本実施形態では、このように座標記憶部210と画像記憶部220とを外部のサーバ400へ保持させることで、表示装置100Bにおいて使用される記憶領域を低減でき、表示装置100Bの処理の負荷を低減できる。   In the display system 300, the display program 200 is installed in the display device 100B, and the coordinate storage unit 210 and the image storage unit 220 are not included. In the present embodiment, the coordinate storage unit 210 and the image storage unit 220 are provided in the server 400. In the present embodiment, the storage area used in the display device 100B can be reduced by holding the coordinate storage unit 210 and the image storage unit 220 in the external server 400 in this way, and the processing load of the display device 100B is reduced. Can be reduced.

尚、表示システム300では、座標記憶部210と画像記憶部220をサーバ400内に設けるものとしたが、これに限定されない。座標記憶部210と画像記憶部220とは、例えば表示装置100Bの外部に設けられた記憶領域に設けられれば良く、サーバ400ではなく、例えば表示装置100Bに着脱可能なUSBメモリ等に設けられても良い。   In the display system 300, the coordinate storage unit 210 and the image storage unit 220 are provided in the server 400, but the present invention is not limited to this. The coordinate storage unit 210 and the image storage unit 220 may be provided in, for example, a storage area provided outside the display device 100B. For example, the coordinate storage unit 210 and the image storage unit 220 are provided not in the server 400 but in a USB memory that can be attached to and detached from the display device 100B. Also good.

図20は、表示システムの第二の例を示す図である。本実施形態の表示システム300Aは、ネットワークを介して接続された表示装置100Cとサーバ400Aとを含む。   FIG. 20 is a diagram illustrating a second example of the display system. The display system 300A of this embodiment includes a display device 100C and a server 400A connected via a network.

図20の例では、サーバ400Aは、座標記憶部210、画像記憶部220、位置検知部230、座標管理部240、距離算出部250、判定部260、画像生成部270を有する。また表示装置100Cは、出力制御部280と撮像制御部290を有する。   In the example of FIG. 20, the server 400A includes a coordinate storage unit 210, an image storage unit 220, a position detection unit 230, a coordinate management unit 240, a distance calculation unit 250, a determination unit 260, and an image generation unit 270. The display device 100C includes an output control unit 280 and an imaging control unit 290.

すなわち、表示システム300Aでは、表示装置100Cは、出力装置102と撮像装置107の制御のみを行い、その他の機能はサーバ400Aで実現される。したがって、図20に示す表示装置100Cは、撮像装置107により撮像した撮像画像をサーバ400Aへ送信し、サーバ400Aの画像生成部270が生成した画像データを出力装置102により出力する表示装置となる。   That is, in the display system 300A, the display device 100C only controls the output device 102 and the imaging device 107, and other functions are realized by the server 400A. Accordingly, the display device 100C illustrated in FIG. 20 is a display device that transmits the captured image captured by the imaging device 107 to the server 400A and outputs the image data generated by the image generation unit 270 of the server 400A by the output device 102.

図21は、表示システムの第三の例を示す図である。本実施形態の表示システム300Bは、ネットワークを介して接続された表示装置100Dとサーバ400Aと、撮像装置107Aとを含む。図21の表示システム300Bでは、表示装置100Dの外部に設けられた撮像装置107Aを用いて撮像画像を取得する。尚、表示装置100Dは、撮像装置107を有していても良いし、有していなくても良い。   FIG. 21 is a diagram illustrating a third example of the display system. The display system 300B according to the present embodiment includes a display device 100D, a server 400A, and an imaging device 107A connected via a network. In the display system 300B of FIG. 21, a captured image is acquired using the imaging device 107A provided outside the display device 100D. The display device 100D may or may not include the imaging device 107.

この場合、サーバ400Aは、撮像装置107Aから撮像画像を取得し、撮像画像に基づき画像生成部270が生成した画像データを表示装置100Dへ送信する。表示装置100Dは、サーバ400Aから受信した画像データを出力装置102により出力する。   In this case, the server 400A acquires a captured image from the imaging device 107A, and transmits the image data generated by the image generation unit 270 based on the captured image to the display device 100D. The display device 100D outputs the image data received from the server 400A by the output device 102.

尚、図21の例では、撮像装置107Aはネットワークを介してサーバ400A及び表示装置100Dと接続されるものとしたが、これに限定されない。撮像装置107Aは、表示装置100Dと直接接続されていても良い。   In the example of FIG. 21, the imaging device 107A is connected to the server 400A and the display device 100D via a network, but the present invention is not limited to this. The imaging device 107A may be directly connected to the display device 100D.

尚、図19乃至図21に示した例は、第二の実施形態にも同様に適用することができる。また、本実施形態のサーバ400、400Aは、演算処理装置と記憶装置とを有する一般的な情報処理装置により実現されても良い。   Note that the examples shown in FIGS. 19 to 21 can be similarly applied to the second embodiment. Further, the servers 400 and 400A of the present embodiment may be realized by a general information processing apparatus having an arithmetic processing device and a storage device.

以下に、本実施形態のサーバ400、400Aのハードウェア構成について説明する。図22は、サーバのハードウェア構成の一例を示す図である。尚、サーバ400とサーバ400Aのハードウェア構成は同様であるので、図22ではサーバ400について説明する。   Hereinafter, the hardware configuration of the servers 400 and 400A of the present embodiment will be described. FIG. 22 is a diagram illustrating an example of a hardware configuration of the server. Since the hardware configurations of the server 400 and the server 400A are the same, the server 400 will be described with reference to FIG.

サーバ400は、それぞれバスBで相互に接続されている入力装置41、出力装置42、ドライブ装置43、補助記憶装置44、メモリ装置45、演算処理装置46及びインターフェース装置47を含む。   The server 400 includes an input device 41, an output device 42, a drive device 43, an auxiliary storage device 44, a memory device 45, an arithmetic processing device 46, and an interface device 47 that are mutually connected by a bus B.

入力装置41はキーボードやマウス等を含み、各種信号を入力するために用いられる。出力装置42はディスプレイ装置等を含み、各種ウィンドウやデータ等を表示するために用いられる。インターフェース装置47は、モデム,LANカード等を含み、ネットワークに接続する為に用いられる。   The input device 41 includes a keyboard and a mouse, and is used for inputting various signals. The output device 42 includes a display device and the like, and is used for displaying various windows and data. The interface device 47 includes a modem, a LAN card, etc., and is used for connecting to a network.

サーバ400にインストールされる表示プログラム200の一部は、サーバ400を制御する各種プログラムの少なくとも一部である。表示プログラム200の一部は例えば記録媒体48の配布やネットワークからのダウンロードなどによって提供される。表示プログラムの一部を記録した記録媒体48は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   A part of the display program 200 installed in the server 400 is at least a part of various programs that control the server 400. A part of the display program 200 is provided, for example, by distributing the recording medium 48 or downloading from the network. A recording medium 48 on which a part of the display program is recorded is a recording medium such as a CD-ROM, a flexible disk, a magneto-optical disk, etc. for recording information optically, electrically or magnetically, a ROM, a flash memory, etc. Various types of recording media such as a semiconductor memory that electrically records information can be used.

また、表示プログラム200の一部は、表示プログラムを記録した記録媒体48がドライブ装置43にセットされるとは記録媒体48からドライブ装置43を介して補助記憶装置44にインストールされる。ネットワークからダウンロードされた表示プログラム200の一部は、インターフェース装置47を介して補助記憶装置44にインストールされる。   A part of the display program 200 is installed from the recording medium 48 to the auxiliary storage device 44 via the drive device 43 when the recording medium 48 on which the display program is recorded is set in the drive device 43. A part of the display program 200 downloaded from the network is installed in the auxiliary storage device 44 via the interface device 47.

補助記憶装置44は、インストールされた表示プログラム200の一部を格納すると共に、必要なファイル、データ等を格納する。メモリ装置45は、コンピュータの起動時に補助記憶装置44から表示プログラムの一部を読み出して格納する。そして、演算処理装置46はメモリ装置45に格納された表示プログラムの一部に従って、上述した各種処理を実現する。   The auxiliary storage device 44 stores a part of the installed display program 200 and also stores necessary files, data, and the like. The memory device 45 reads and stores a part of the display program from the auxiliary storage device 44 when the computer is activated. Then, the arithmetic processing unit 46 implements the various processes described above according to a part of the display program stored in the memory device 45.

以上のように、本実施形態では、表示プログラム200、200Aにより実現される機能の一部をサーバ等の外部装置に設けることで、表示装置における処理の負荷を軽減できる。   As described above, in this embodiment, by providing a part of the functions realized by the display programs 200 and 200A in an external device such as a server, the processing load on the display device can be reduced.

本実施形態は、次に示される捉え方が可能である。すなわち、本実施形態の表示システム300、300Aは、表示装置100B〜100Dと、表示装置100B〜100Dと接続されたサーバ400、400Aとを含む表示システム300、300Aであって、画面10を含む撮像画像1A、1B、1C、60内における人物の位置を検知する位置検知部230と、検知された人物が複数であったとき、複数の人物の間の距離Lを算出する距離算出部250と、画面10において、距離Lに応じた位置に複数の人物と対応する画像11、12、13、91、92、93を表示させる出力制御部280と、を有する。   This embodiment can be understood as shown below. That is, the display systems 300 and 300A of the present embodiment are the display systems 300 and 300A including the display devices 100B to 100D and the servers 400 and 400A connected to the display devices 100B to 100D. A position detection unit 230 that detects the positions of persons in the images 1A, 1B, 1C, and 60; a distance calculation unit 250 that calculates a distance L between the plurality of persons when there are a plurality of detected persons; The screen 10 includes an output control unit 280 that displays images 11, 12, 13, 91, 92, 93 corresponding to a plurality of persons at positions corresponding to the distance L.

100、100A〜100D 表示装置
200、200A 表示プログラム
210 座標記憶部
220 画像記憶部
225 対応情報記憶部
230 位置検知部
240 座標管理部
250 距離算出部
260判定部
270 画像生成部
300 表示システム
100, 100A to 100D Display device 200, 200A Display program 210 Coordinate storage unit 220 Image storage unit 225 Corresponding information storage unit 230 Position detection unit 240 Coordinate management unit 250 Distance calculation unit
260 determination unit 270 image generation unit 300 display system

特許第5260643号公報Japanese Patent No. 5260643

Claims (11)

表示領域を含む所定範囲内における人物の位置を検知する位置検知部と、
検知された人物が複数であったとき、複数の人物の間の距離を算出する距離算出部と、
前記表示領域において、前記距離に応じて1又は複数の画像を表示させる出力制御部と、を有する表示装置。
A position detector that detects the position of a person within a predetermined range including a display area;
A distance calculating unit that calculates a distance between a plurality of persons when there are a plurality of detected persons;
A display device comprising: an output control unit configured to display one or a plurality of images according to the distance in the display area.
前記距離が第一の閾値未満であった場合に1の画像を表示させるものと判定し、前記距離が第二の閾値未満であった場合に複数の画像を表示させるものと判定する判定部を有する請求項1記載の表示装置。   A determination unit that determines to display one image when the distance is less than a first threshold, and determines to display a plurality of images when the distance is less than a second threshold; The display device according to claim 1. 前記出力制御部により表示させる画像の画像データを生成する画像生成部を有し、
前記画像生成部は、
前記距離が、前記第一の閾値未満であったとき、前記複数の人物のそれぞれに対応する複数の画像を統合した1の画像の画像データを生成し、
前記出力制御部は、
前記1の画像を、前記表示領域において前記複数の人物の位置関係に基づく位置へ表示させる請求項2記載の表示装置。
An image generation unit that generates image data of an image to be displayed by the output control unit;
The image generation unit
When the distance is less than the first threshold, generate image data of one image obtained by integrating a plurality of images corresponding to each of the plurality of persons,
The output control unit
The display device according to claim 2, wherein the one image is displayed at a position based on a positional relationship between the plurality of persons in the display area.
前記画像生成部は、
画像を統合した画像データを生成した後に、前記距離が、前記第二の閾値以上となったとき、前記統合した画像データを前記複数の人物のそれぞれに対応する複数の画像の画像データに分離し、
前記出力制御部は、
前記複数の画像を、前記表示領域において前記複数の人物のそれぞれの位置と対応する位置へ表示させる請求項3記載の表示装置。
The image generation unit
When the distance is equal to or greater than the second threshold after generating image data in which images are integrated, the integrated image data is separated into image data of a plurality of images corresponding to each of the plurality of persons. ,
The output control unit
The display device according to claim 3, wherein the plurality of images are displayed at positions corresponding to positions of the plurality of persons in the display area.
前記画像生成部は、
前記距離が、前記第一の閾値未満の場合において、
前記距離に応じたサイズの前記統合した画像の画像データを生成する請求項3又は4記載の表示装置。
The image generation unit
In the case where the distance is less than the first threshold,
The display device according to claim 3, wherein image data of the integrated image having a size corresponding to the distance is generated.
前記複数の人物と対応する画像は、
前記表示領域に表示された画面の操作指示を受け付ける画像であり、
前記統合した画像において前記操作指示を受け付けている最中に、前記距離が第二の閾値以上となったとき、
前記出力制御部は、前記統合した画像データの分離を行わない通知を出力する請求項3乃至5の何れか一項に記載の表示装置。
The images corresponding to the plurality of persons are
An image for accepting an operation instruction for a screen displayed in the display area;
In the middle of accepting the operation instruction in the integrated image, when the distance becomes a second threshold or more,
The display device according to claim 3, wherein the output control unit outputs a notification that does not separate the integrated image data.
前記複数の人物のそれぞれに対応する前記複数の画像のうち、少なくとも一の画像において前記操作指示を受け付けている最中に、前記距離が第一の閾値未満となったとき、
前記画像生成部は、
前記操作指示を受け付けている最中の画像以外の画像の輝度を低下させる請求項6記載の表示装置。
When the distance is less than the first threshold while receiving the operation instruction in at least one of the plurality of images corresponding to each of the plurality of persons,
The image generation unit
The display device according to claim 6, wherein the brightness of an image other than the image that is being accepted is reduced.
前記所定範囲は、撮像装置により撮像された撮像画像であって、
前記撮像画像を解析して検知された前記人物の特徴情報を取得する人物解析部と、
前記特徴情報と、画像の種類とが対応付けられた対応情報を参照し、前記特徴情報と対応する画像を前記複数の人物と対応する画像として選択する対応画像選択部と、を有する請求項1乃至7の何れか一項に記載の表示装置。
The predetermined range is a captured image captured by an imaging device,
A person analysis unit that obtains characteristic information of the person detected by analyzing the captured image;
2. A correspondence image selection unit that refers to correspondence information in which the feature information is associated with an image type, and selects an image corresponding to the feature information as an image corresponding to the plurality of persons. The display apparatus as described in any one of thru | or 7.
表示装置と、前記表示装置と接続された情報処理装置とを含む表示システムであって、
表示領域を含む所定範囲内における人物の位置を検知する位置検知部と、
検知された人物が複数であったとき、複数の人物の間の距離を算出する距離算出部と、
前記表示領域において、前記距離に応じて1又は複数の画像を表示させる出力制御部と、を有する表示システム。
A display system including a display device and an information processing device connected to the display device,
A position detector that detects the position of a person within a predetermined range including a display area;
A distance calculating unit that calculates a distance between a plurality of persons when there are a plurality of detected persons;
A display system including: an output control unit configured to display one or a plurality of images according to the distance in the display area;
コンピュータにより実行される表示方法であって、
表示領域を含む所定範囲内における人物の位置を検知する位置検知手順と、
検知された人物が複数であったとき、複数の人物の間の距離を算出する距離算出手順と、
前記表示領域において、前記距離に応じて1又は複数の画像を表示させる出力制御手順と、を有する表示方法。
A display method executed by a computer,
A position detection procedure for detecting the position of a person within a predetermined range including a display area;
A distance calculation procedure for calculating a distance between a plurality of persons when there are a plurality of detected persons;
An output control procedure for displaying one or a plurality of images according to the distance in the display area.
表示領域を含む所定範囲内における人物の位置を検知する位置検知ステップと、
検知された人物が複数であったとき、複数の人物の間の距離を算出する距離算出ステップと、
前記表示領域において、前記距離に応じて1又は複数の画像を表示させる出力制御ステップと、をコンピュータに実行させる表示プログラム。
A position detecting step for detecting the position of the person within a predetermined range including the display area;
A distance calculating step for calculating a distance between the plurality of persons when there are a plurality of detected persons;
A display program for causing a computer to execute an output control step of displaying one or a plurality of images according to the distance in the display area.
JP2014145619A 2014-07-16 2014-07-16 Display device, display system, display method and display program Pending JP2016021206A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014145619A JP2016021206A (en) 2014-07-16 2014-07-16 Display device, display system, display method and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014145619A JP2016021206A (en) 2014-07-16 2014-07-16 Display device, display system, display method and display program

Publications (1)

Publication Number Publication Date
JP2016021206A true JP2016021206A (en) 2016-02-04

Family

ID=55265997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014145619A Pending JP2016021206A (en) 2014-07-16 2014-07-16 Display device, display system, display method and display program

Country Status (1)

Country Link
JP (1) JP2016021206A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11480863B2 (en) 2018-07-31 2022-10-25 Seiko Epson Corporation Projector that lowers visibility of base image, projection system and projection method
CN115599219A (en) * 2022-10-31 2023-01-13 深圳市九洲智和科技有限公司(Cn) Eye protection control method, system, equipment and storage medium for display screen

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11480863B2 (en) 2018-07-31 2022-10-25 Seiko Epson Corporation Projector that lowers visibility of base image, projection system and projection method
CN115599219A (en) * 2022-10-31 2023-01-13 深圳市九洲智和科技有限公司(Cn) Eye protection control method, system, equipment and storage medium for display screen

Similar Documents

Publication Publication Date Title
US10574889B2 (en) Information processing device, information processing method, and program
JP6062039B2 (en) Image processing system and image processing program
JP6622650B2 (en) Information processing apparatus, control method therefor, and imaging system
JP2016213808A (en) Camera selecting method and video distribution system
JP6568374B2 (en) Information processing apparatus, information processing method, and program
US10600218B2 (en) Display control system, display control apparatus, display control method, and storage medium
WO2014013629A1 (en) Moving-image processing device, moving-image processing method, and information recording medium
US9900568B2 (en) Remote communication system, method for controlling remote communication system, and storage medium
WO2017169369A1 (en) Information processing device, information processing method, program
JP2014096661A (en) Method for realtime diminishing of moving object in moving image during photographing of moving image, moving image photographing apparatus for the same, and program for mentioned moving image photographing apparatus
JP2023001324A (en) computer program for video coding
JP6812181B2 (en) Image processing device, image processing method, and program
JP6032283B2 (en) Surveillance camera management device, surveillance camera management method, and program
JP2016021206A (en) Display device, display system, display method and display program
US20190146996A1 (en) Event search system, device, and method
WO2018168823A1 (en) Image processing device and electronic equipment
JP5818322B2 (en) Video generation apparatus, video generation method, and computer program
JP2009246917A (en) Video display device, and video processing apparatus
JP6700672B2 (en) Remote communication system, its control method, and program
JP2016194792A (en) Information processing device, information processing method, and program
JP2020510336A (en) Method for generating directional information of an omnidirectional image and apparatus for performing such method
US11076097B2 (en) Method for street view service and apparatus for performing same method
KR20180102482A (en) Method for generating direction information of omnidirectional image and device for performing the method
JP2014207662A (en) Video processing device, video processing device control method, and program
WO2018168825A1 (en) Image processing device and electronic equipment