JP6769429B2 - Image processing device and image display system - Google Patents

Image processing device and image display system Download PDF

Info

Publication number
JP6769429B2
JP6769429B2 JP2017252145A JP2017252145A JP6769429B2 JP 6769429 B2 JP6769429 B2 JP 6769429B2 JP 2017252145 A JP2017252145 A JP 2017252145A JP 2017252145 A JP2017252145 A JP 2017252145A JP 6769429 B2 JP6769429 B2 JP 6769429B2
Authority
JP
Japan
Prior art keywords
image
unit
display
nth
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017252145A
Other languages
Japanese (ja)
Other versions
JP2019117572A (en
Inventor
昌人 塩瀬
昌人 塩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2017252145A priority Critical patent/JP6769429B2/en
Publication of JP2019117572A publication Critical patent/JP2019117572A/en
Application granted granted Critical
Publication of JP6769429B2 publication Critical patent/JP6769429B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、及び画像表示システムに関する。 The present invention relates to an image processing device and an image display system.

特許文献1に記載の広告表示管理システムは、ユーザー端末と、統括司令所と、複数の広告グループとを備える。広告ユーザーは、ユーザー端末を介して統括司令所に対し、広告データを入力する。また、広告ユーザーは、ユーザー端末を介して広告グループを選択し、広告を表示する時間帯を選択する。 The advertisement display management system described in Patent Document 1 includes a user terminal, a general control center, and a plurality of advertisement groups. The advertising user inputs the advertising data to the general control center via the user terminal. In addition, the advertisement user selects an advertisement group via the user terminal and selects a time zone in which the advertisement is displayed.

特開2002−56273号公報JP-A-2002-56273

しかし、広告ユーザーは複数の広告グループ(表示部)のうちから広告(表示画像)を表示させる広告グループを決定しなければならず、煩雑な作業を要する。また、広告ユーザーの選択したグループが広告を表示するのに適した場所に位置しているか否か不明なことがある。この場合、広告ユーザーは、例えば、グループの位置する場所まで行って、グループが適した場所に位置しているか否かを確認する。その結果、広告を表示させる広告グループを決定するのに煩雑な作業を要する。 However, the advertisement user must determine the advertisement group to display the advertisement (display image) from the plurality of advertisement groups (display unit), which requires complicated work. It may also be unclear whether the group selected by the advertising user is located in a suitable location to display the advertisement. In this case, the advertising user goes to, for example, the location of the group to see if the group is located in a suitable location. As a result, it takes a complicated work to determine the ad group to display the ad.

本発明は、複数の表示部のうち表示画像を表示させる表示部を決定する作業を容易に行うことができる画像処理装置、及び画像表示システムを提供する。 The present invention provides an image processing device and an image display system capable of easily determining a display unit for displaying a display image among a plurality of display units.

本発明の一局面によれば、画像処理装置は、互いに異なる場所に配置される第1表示部〜第N(Nは2以上の整数)表示部を含む情報装置を用いる。画像処理装置は、読取部と、算出部と、記憶部と、決定部と、制御部とを備える。読取部は、シートに形成された表示画像を読み取る。算出部は、前記表示画像に基づいて、前記表示画像に表示された画像場所情報を算出する。記憶部は、複数の場所情報と、複数のグループとをそれぞれ対応付けた第1対応情報を記憶する。決定部は、前記第1対応情報と前記画像場所情報とに基づいて、複数の前記グループのうちの少なくとも1つを示す対象グループを決定する。制御部は、前記第1表示部〜前記第N表示部の各々を制御する。前記場所情報は、住所を示す情報、及び/又は、施設の名称を示す情報を含む。前記複数のグループの各々は、前記第1表示部〜前記第N表示部のうちの少なくとも1つを含む。前記制御部は、前記第1表示部〜前記第N表示部のうち、前記対象グループに含まれる表示部である対象表示部に前記表示画像を表示させる。 According to one aspect of the present invention, the image processing device uses an information device including a first display unit to an Nth (N is an integer of 2 or more) display units arranged at different locations. The image processing device includes a reading unit, a calculation unit, a storage unit, a determination unit, and a control unit. The reading unit reads the display image formed on the sheet. The calculation unit calculates the image location information displayed on the displayed image based on the displayed image. The storage unit stores the first correspondence information in which the plurality of location information and the plurality of groups are associated with each other. The determination unit determines a target group indicating at least one of the plurality of the groups based on the first correspondence information and the image location information. The control unit controls each of the first display unit to the Nth display unit. The location information includes information indicating an address and / or information indicating the name of a facility. Each of the plurality of groups includes at least one of the first display unit to the Nth display unit. The control unit causes the display image to be displayed on the target display unit, which is a display unit included in the target group, among the first display unit to the Nth display unit.

本発明の他の一局面によれば、画像形成システムは、上記画像処理装置と、上記情報装置とを備える。 According to another aspect of the present invention, the image forming system includes the image processing device and the information device.

本発明によれば、複数の表示部のうち表示画像を表示させる表示部を決定する作業を容易に行うことができる。 According to the present invention, it is possible to easily determine a display unit for displaying a display image among a plurality of display units.

本発明の実施形態に係る画像表示システムのブロック図である。It is a block diagram of the image display system which concerns on embodiment of this invention. 表示画像の一例を示す図である。It is a figure which shows an example of the display image. 第1対応情報を示す図である。It is a figure which shows the 1st correspondence information. 制御装置の第1の動作を示す第1フロー図である。It is a 1st flow diagram which shows the 1st operation of a control device. 制御装置の第1の動作を示す第2フロー図である。It is a 2nd flow diagram which shows the 1st operation of a control device. 制御装置の第2の動作を示すフロー図である。It is a flow chart which shows the 2nd operation of a control device. 第2対応情報を示す図である。It is a figure which shows the 2nd correspondence information. 制御装置の第3の動作を示すフロー図である。It is a flow chart which shows the 3rd operation of a control device. 制御装置の第4の動作を示すフロー図である。It is a flow chart which shows the 4th operation of a control device. 第3対応情報を示す図である。It is a figure which shows the 3rd correspondence information. 制御装置の第5の動作を示す第1フロー図である。It is a 1st flow diagram which shows the 5th operation of a control device. 制御装置の第5の動作を示す第2フロー図である。It is a 2nd flow diagram which shows the 5th operation of a control device. 第4対応情報を示す図である。It is a figure which shows the 4th correspondence information. 制御装置の第6の動作を示すフロー図である。It is a flow chart which shows the sixth operation of a control device. 画像形成装置を示す模式的断面図である。It is a schematic cross-sectional view which shows the image forming apparatus.

本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。 An embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are designated by the same reference numerals and the description is not repeated.

[第1実施形態]
図1を参照して、本発明の第1実施形態に係る画像表示システムXについて説明する。図1は、画像表示システムXのブロック図である。
[First Embodiment]
The image display system X according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram of the image display system X.

図1に示すように、画像表示システムXは、例えば、デジタルサイネージとして機能する。画像表示システムXは、画像処理装置100と、情報装置200とを備える。 As shown in FIG. 1, the image display system X functions as, for example, digital signage. The image display system X includes an image processing device 100 and an information device 200.

画像処理装置100は、例えば、コンビニエンスストアのような商業施設に配置される。画像処理装置100は、読取部10、入力部20、記憶部30、通信部40、及び制御装置50を有する。 The image processing device 100 is arranged in a commercial facility such as a convenience store. The image processing device 100 includes a reading unit 10, an input unit 20, a storage unit 30, a communication unit 40, and a control device 50.

読取部10は、シートTに形成された表示画像Gを走査して、シートTに形成された表示画像Gを読み取る。その結果、読取部10は、表示画像Gを示す画像データを取得する。 The reading unit 10 scans the display image G formed on the sheet T and reads the display image G formed on the sheet T. As a result, the reading unit 10 acquires image data indicating the display image G.

読取部10は、例えば、LED(Light Emitting Diode)のような発光部と、イメージセンサーのような撮像部とを含む。読取部10は、発光部、及び撮像部を用いて、シートTに形成された表示画像Gを走査する。 The reading unit 10 includes, for example, a light emitting unit such as an LED (Light Emitting Diode) and an imaging unit such as an image sensor. The reading unit 10 scans the display image G formed on the sheet T by using the light emitting unit and the imaging unit.

入力部20は、画像処理装置100に対する指示を受け付ける。入力部20は、タッチパネル及び複数の操作キーを含む。 The input unit 20 receives an instruction to the image processing device 100. The input unit 20 includes a touch panel and a plurality of operation keys.

記憶部30は、記憶装置を含む。記憶装置は、ROM(Read Only Memory)、及びRAM(Random Access Memory)のような主記憶装置(例えば、半導体メモリー)を含み、補助記憶装置(例えば、ハードディスクドライブ、及び不揮発性メモリー)をさらに含んでもよい。主記憶装置及び/又は補助記憶装置は、制御装置50によって実行される種々のコンピュータープログラムを記憶する。 The storage unit 30 includes a storage device. The storage device includes a main storage device (eg, semiconductor memory) such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and further includes an auxiliary storage device (eg, a hard disk drive, and a non-volatile memory). It may be. The main storage device and / or the auxiliary storage device stores various computer programs executed by the control device 50.

通信部40は、制御装置50と情報装置200との間で情報の送受信を行う。通信部40は、例えば、同じ通信方式(プロトコル)を利用する通信機が搭載された電子機器との間で通信が可能である。第1実施形態において、通信部40は、LAN(Local Area Network)などのネットワーク網Nを介して情報装置200と通信する。通信部40は、例えば、LANボードのような通信モジュール(通信機器)である。 The communication unit 40 transmits / receives information between the control device 50 and the information device 200. The communication unit 40 can communicate with, for example, an electronic device equipped with a communication device that uses the same communication method (protocol). In the first embodiment, the communication unit 40 communicates with the information device 200 via a network network N such as a LAN (Local Area Network). The communication unit 40 is, for example, a communication module (communication device) such as a LAN board.

制御装置50は、CPU(Central Processing Unit)及びMPU(Micro Processing Unit)のようなプロセッサーを含む。制御装置50は、画像処理装置100の各要素を制御する。具体的には、制御装置50のプロセッサーは、記憶装置に記憶されたコンピュータープログラムを実行することにより、読取部10と、入力部20と、記憶部30と、通信部40とを制御する。また、制御装置50は、通信部40を介して情報装置200を制御する。 The control device 50 includes processors such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). The control device 50 controls each element of the image processing device 100. Specifically, the processor of the control device 50 controls the reading unit 10, the input unit 20, the storage unit 30, and the communication unit 40 by executing a computer program stored in the storage device. Further, the control device 50 controls the information device 200 via the communication unit 40.

制御装置50は、算出部51と、決定部52と、制御部53とを有する。具体的には、制御装置50のプロセッサーが、記憶装置に記憶されたコンピュータープログラムを実行することにより、算出部51、決定部52、及び制御部53として機能する。 The control device 50 includes a calculation unit 51, a determination unit 52, and a control unit 53. Specifically, the processor of the control device 50 functions as a calculation unit 51, a determination unit 52, and a control unit 53 by executing a computer program stored in the storage device.

情報装置200は、複数の表示部αと、複数の撮像部βとを含む。 The information device 200 includes a plurality of display units α and a plurality of image pickup units β.

複数の表示部αの各々は、例えば、LCD(Liquid Crystal Display)、ELD(Electro Luminescence Display)、又は映像プロジェクタのようなディスプレーである。 Each of the plurality of display units α is, for example, a display such as an LCD (Liquid Crystal Display), an ELD (Electro Luminescence Display), or a video projector.

複数の表示部αの各々は、互いに異なる場所に配置される。複数の表示部αの各々は、例えば、通行人が視認可能な場所に配置される。複数の表示部αの各々は、例えば、住宅街、繁華街、駅、商業施設、及び/又は、公共施設に配置される。複数の表示部αの各々は、ネットワーク網Nを介して制御装置50により制御される。 Each of the plurality of display units α is arranged at a different location from each other. Each of the plurality of display units α is arranged, for example, in a place where a passerby can see. Each of the plurality of display units α is arranged in, for example, a residential area, a downtown area, a station, a commercial facility, and / or a public facility. Each of the plurality of display units α is controlled by the control device 50 via the network network N.

複数の表示部αは、第1表示部α1〜第N表示部αNを含む。Nは、2以上の整数である。複数の表示部αの各々は、画像を表示可能な表示可能領域を有する。第1表示部α1〜第N表示部αNは、それぞれ、第1表示可能領域〜第N表示可能領域を有する。第n表示可能領域は、第n表示部αnの表示可能領域を示す。nは、1以上N以下の整数である。 The plurality of display units α include the first display unit α1 to the Nth display unit αN. N is an integer of 2 or more. Each of the plurality of display units α has a displayable area on which an image can be displayed. The first display unit α1 to the Nth display unit αN each have a first displayable area to an Nth displayable area. The nth displayable area indicates a displayable area of the nth display unit αn. n is an integer of 1 or more and N or less.

複数の撮像部βの各々は、例えば、レンズとイメージセンサーとを有する。レンズは、撮像部βの外部から入射する光を集光し、イメージセンサーの撮像面に結像させる。イメージセンサーは、例えば、CCD(Charged Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)のような固定撮像素子で構成される。イメージセンサーは、撮像面に結像した光学像を電気信号に変換して、画像データを生成する。複数の撮像部βの各々が生成した画像データは、ネットワーク網Nを介して制御装置50に送信される。 Each of the plurality of imaging units β has, for example, a lens and an image sensor. The lens collects light incident from the outside of the imaging unit β and forms an image on the imaging surface of the image sensor. The image sensor is composed of a fixed image sensor such as a CCD (Charged Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), for example. The image sensor converts an optical image formed on an imaging surface into an electric signal to generate image data. The image data generated by each of the plurality of imaging units β is transmitted to the control device 50 via the network network N.

複数の撮像部βは、第1撮像部β1〜第N撮像部βNを含む。複数の撮像部βは、それぞれ、複数の表示部αの周辺を撮像する。具体的には、第n撮像部βnは、第n表示部αnの近傍に配置される。第n撮像部βnは、第n表示部αnの周辺を撮像する。 The plurality of imaging units β include a first imaging unit β1 to an Nth imaging unit βN. Each of the plurality of imaging units β images the periphery of the plurality of display units α. Specifically, the nth imaging unit βn is arranged in the vicinity of the nth display unit αn. The nth imaging unit βn images the periphery of the nth display unit αn.

記憶部30は、サイズ情報31と、第1対応情報32とを記憶する。 The storage unit 30 stores the size information 31 and the first correspondence information 32.

サイズ情報31は、複数の表示部αの各々の表示可能領域を示す情報である。なお、第n表示部αnの表示可能領域を、第n表示可能領域と記載する。 The size information 31 is information indicating each displayable area of the plurality of display units α. The displayable area of the nth display unit αn is referred to as the nth displayable area.

次に、図2を参照して、シートSに形成される表示画像Gについて説明する。図2は、表示画像Gの一例を示す図である。 Next, the display image G formed on the sheet S will be described with reference to FIG. FIG. 2 is a diagram showing an example of the display image G.

図2に示すように、表示画像Gは、画像イベント情報G1と、画像場所情報G2と、画像日時情報G3とを含む。 As shown in FIG. 2, the display image G includes image event information G1, image location information G2, and image date / time information G3.

画像イベント情報G1は、イベント情報を含む。イベント情報は、例えば、「運動会」、「フリーマーケット」、及び「××展示会」のようなイベントの内容を示す情報である。画像イベント情報G1は、例えば、文字で表される。 The image event information G1 includes event information. The event information is information indicating the contents of an event such as "athletic meet", "flea market", and "XX exhibition". The image event information G1 is represented by characters, for example.

画像場所情報G2は、場所情報Lを含む。場所情報Lは、例えば、住所を示す情報、及び/又は、「〇×小学校」のような施設の名称を示す情報である。画像場所情報G2は、例えば、文字で表される。 The image location information G2 includes the location information L. The place information L is, for example, information indicating an address and / or information indicating the name of a facility such as "○ × elementary school". The image location information G2 is represented by characters, for example.

画像日時情報G3は、日時情報を含む。日時情報は、例えば、「2000年10月10日午前10時」のような日時を示す情報である。画像日時情報G3は、例えば、文字で表される。 The image date / time information G3 includes date / time information. The date and time information is information indicating the date and time, for example, "10 am on October 10, 2000". The image date / time information G3 is represented by characters, for example.

次に、図3を参照して、第1対応情報32について説明する。図3は、第1対応情報32を示す図である。 Next, the first correspondence information 32 will be described with reference to FIG. FIG. 3 is a diagram showing the first correspondence information 32.

図3に示すように、第1対応情報32は、複数の場所情報Lと、複数のグループMとをそれぞれ対応付けた情報である。複数のグループMの各々は、複数の表示部αのうちの少なくとも1つを示す。 As shown in FIG. 3, the first correspondence information 32 is information in which a plurality of location information L and a plurality of groups M are associated with each other. Each of the plurality of groups M indicates at least one of the plurality of display units α.

複数の場所情報Lは、第1場所情報L1〜第R場所情報LRで構成される。Rは、2以上の整数である。複数のグループMは、第1グループM1〜第RグループMRで構成される。第1対応情報32では、第1場所情報L1〜第R場所情報LRと、第1グループM1〜第RグループMRとがそれぞれ対応付けられる。 The plurality of location information L is composed of the first location information L1 to the R location information LR. R is an integer of 2 or more. The plurality of groups M are composed of the first group M1 to the R group MR. In the first correspondence information 32, the first place information L1 to the R place information LR and the first group M1 to the R group MR are associated with each other.

第1対応情報32では、第r場所情報Lrと、第rグループMrとが対応付けられる。rは、1以上、R以下の整数を示す。第1実施形態では、第1場所情報L1は、「〇×小学校」である。第1グループM1は、第1表示部α1〜第2表示部α2を含む。従って、第1実施形態では、「〇×小学校」と、第1表示部α1〜第2表示部α2とが対応付けられる。 In the first correspondence information 32, the r-place information Lr and the r-group Mr are associated with each other. r indicates an integer of 1 or more and R or less. In the first embodiment, the first place information L1 is "○ × elementary school". The first group M1 includes the first display unit α1 and the second display unit α2. Therefore, in the first embodiment, “〇 × elementary school” is associated with the first display unit α1 and the second display unit α2.

第rグループMrに含まれる表示部αは、第r場所情報Lrが示す場所である第r場所に対して所定の位置に配置される。所定の位置は、例えば、第r場所の周辺、第r場所から所定の距離だけ離間した位置、及び/又は、第r場所に向かう経路に沿った位置を示す。所定の距離だけ離間した位置は、例えば、第r場所が示す場所に向かって徒歩又は交通機関により移動した場合に、所定時間内に第r場所に到達できる位置を示す。所定の距離は、例えば、画像イベント情報G1の内容を考慮して、適宜決定される。 The display unit α included in the r-th group Mr is arranged at a predetermined position with respect to the r-place which is the place indicated by the r-place information Lr. The predetermined position indicates, for example, a position around the r-place, a position separated from the r-place by a predetermined distance, and / or a position along a path toward the r-place. The position separated by a predetermined distance indicates, for example, a position where the r-place can be reached within a predetermined time when moving toward the place indicated by the r-place by walking or transportation. The predetermined distance is appropriately determined in consideration of, for example, the content of the image event information G1.

次に、図4及び図5を参照して、制御装置50の第1の動作について説明する。図4は、制御装置50の第1の動作を示す第1フロー図である。図5は、制御装置50の第1の動作を示す第2フロー図である。 Next, the first operation of the control device 50 will be described with reference to FIGS. 4 and 5. FIG. 4 is a first flow chart showing the first operation of the control device 50. FIG. 5 is a second flow chart showing the first operation of the control device 50.

図4に示すように、ステップS10において、入力部20は、デジタルサイネージを実行することを示すジョブの入力を受け付ける。 As shown in FIG. 4, in step S10, the input unit 20 receives an input of a job indicating that the digital signage is executed.

ステップS20において、読取部10は、シートSに形成された表示画像G(図2参照)を読み取る。 In step S20, the reading unit 10 reads the display image G (see FIG. 2) formed on the sheet S.

ステップS30において、算出部51は、表示画像Gに基づいて、画像場所情報G2を算出する。算出部51は、例えば、OCR機能により、既知のフォントを用いて形成された文字を示す画像と、表示画像Gとのパターンマッチングによる照合を行い、表示画像Gに含まれる文字を算出する。その結果、第1実施形態では、算出部51は、OCR機能により、画像イベント情報G1と、画像場所情報G2と、画像日時情報G3とを算出する(図2参照)。なお、第1実施形態では、算出部51により算出された画像場所情報G2は、「〇×小学校」である。 In step S30, the calculation unit 51 calculates the image location information G2 based on the display image G. For example, the calculation unit 51 uses the OCR function to perform pattern matching matching between an image showing characters formed using a known font and the display image G, and calculate the characters included in the display image G. As a result, in the first embodiment, the calculation unit 51 calculates the image event information G1, the image location information G2, and the image date / time information G3 by the OCR function (see FIG. 2). In the first embodiment, the image location information G2 calculated by the calculation unit 51 is “〇 × elementary school”.

ステップS40において、決定部52は、第1対応情報32(図3参照)と、算出部51が算出した画像場所情報G2とに基づいて、複数のグループMのうちから対象グループを決定する。決定部52は、第1対応情報32において、複数のグループMのうち、画像場所情報G2と対応するグループMを、対象グループに決定する。第1実施形態では、画像場所情報G2は、「〇×小学校」である。従って、第1実施形態の対象グループは、第1グループM1である(図3参照)。なお、対象グループに含まれる表示部αを、対象表示部と記載する。第1実施形態では、対象表示部は、第1表示部α1、及び第2表示部α2である。 In step S40, the determination unit 52 determines the target group from the plurality of groups M based on the first correspondence information 32 (see FIG. 3) and the image location information G2 calculated by the calculation unit 51. In the first correspondence information 32, the determination unit 52 determines the group M corresponding to the image location information G2 as the target group among the plurality of groups M. In the first embodiment, the image location information G2 is "○ × elementary school". Therefore, the target group of the first embodiment is the first group M1 (see FIG. 3). The display unit α included in the target group is referred to as a target display unit. In the first embodiment, the target display units are the first display unit α1 and the second display unit α2.

ステップS50において、入力部20は、対象日を示す情報の入力を受け付ける。対象日は、対象グループに表示画像Gを表示させる日にちを示す。 In step S50, the input unit 20 receives input of information indicating the target date. The target date indicates a date on which the display image G is displayed on the target group.

ステップS60において、入力部20は、対象時間を示す情報の入力を受け付ける。対象時間は、対象表示部に表示画像Gを表示させる時刻又は時間帯を示す。 In step S60, the input unit 20 receives the input of information indicating the target time. The target time indicates a time or a time zone in which the display image G is displayed on the target display unit.

ステップS70において、料金算出部54は、対象表示部に表示画像Gを表示させるために必要な料金を算出する。料金は、例えば、対象表示部の個数、及び対象表示部に表示画像Gが表示される時間の長さに基づいて決定される。例えば、対象表示部の個数が多くなる程、料金が高くなる。さらに、対象表示部に表示画像Gが表示される時間が長くなる程、料金が高くなる。料金は、例えば、コインベンダー、プリペイドカード、電子マネー、又はクレジットカードにより決済される。 In step S70, the charge calculation unit 54 calculates the charge required for displaying the display image G on the target display unit. The charge is determined based on, for example, the number of target display units and the length of time that the display image G is displayed on the target display unit. For example, the larger the number of target display units, the higher the charge. Further, the longer the display image G is displayed on the target display unit, the higher the charge. The fee is settled by, for example, a coin vendor, a prepaid card, electronic money, or a credit card.

ステップS80において、制御部53は、料金が支払われたか否かを判定する。料金が支払われたと制御部53が判定すると(ステップS80で、Yes)、処理がステップS90に移行する。料金が支払われていないと制御部53が判定すると(ステップS80で、No)、処理が終了する。 In step S80, the control unit 53 determines whether or not the fee has been paid. When the control unit 53 determines that the fee has been paid (Yes in step S80), the process proceeds to step S90. When the control unit 53 determines that the fee has not been paid (No in step S80), the process ends.

図5に示すように、ステップS90において、制御部53は、対象表示日に対する表示画像Gの表示期間中であるか否かを判定する。制御部53はタイマーの機能を有し、タイマーにより表示画像Gの表示期間中であるか否かを判定する。なお、表示画像Gの表示期間は、ステップS50、及びステップS60で決定された期間を示す。表示画像Gの表示期間中であると制御部53が判定すると(ステップS90で、Yes)、処理がステップS100に移行する。表示画像Gの表示期間中ではないと制御部53が判定すると(ステップS90で、No)、処理がステップS140に移行する。 As shown in FIG. 5, in step S90, the control unit 53 determines whether or not the display image G is in the display period with respect to the target display date. The control unit 53 has a timer function, and determines whether or not the display image G is in the display period by the timer. The display period of the display image G indicates the period determined in step S50 and step S60. When the control unit 53 determines that the display image G is in the display period (Yes in step S90), the process shifts to step S100. When the control unit 53 determines that the display image G is not in the display period (No in step S90), the process proceeds to step S140.

ステップS100において、制御部53は、サイズ情報31に基づいて、対象表示部の表示可能領域のサイズに合わせて表示画像Gのサイズを調整する。表示画像Gのサイズを調整するとは、表示画像Gを拡大又は縮小することを示す。表示画像Gのサイズを表示可能領域のサイズに合わせるとは、表示画像Gが表示可能領域内に収まる範囲で、表示画像Gのサイズをできるだけ大きくすることを示す。 In step S100, the control unit 53 adjusts the size of the display image G according to the size of the displayable area of the target display unit based on the size information 31. Adjusting the size of the display image G means enlarging or reducing the display image G. Matching the size of the display image G to the size of the displayable area means increasing the size of the display image G as much as possible within the range in which the display image G fits within the displayable area.

ステップS110において、制御部53は、対象表示部に表示画像Gを表示させる。なお、対象表示部に表示される表示画像Gは、ステップS100でサイズを調整されている。従って、対象表示部の表示可能領域のサイズに適したサイズを有する表示画像Gを、対象表示部の表示可能領域に表示させることができる。 In step S110, the control unit 53 causes the target display unit to display the display image G. The size of the display image G displayed on the target display unit is adjusted in step S100. Therefore, the display image G having a size suitable for the size of the displayable area of the target display unit can be displayed in the displayable area of the target display unit.

なお、第1実施形態では、第1表示部α1、及び第2表示部α2が対象表示部である(ステップS40参照)。従って、第1実施形態では、制御部53は、第1表示可能領域のサイズに合わせたサイズを有する表示画像Gを、第1表示部α1の第1表示可能領域に表示させる。また、制御部53は、第2表示可能領域のサイズに合わせたサイズを有する表示画像Gを、第2表示部α2の第2表示可能領域に表示させる。 In the first embodiment, the first display unit α1 and the second display unit α2 are the target display units (see step S40). Therefore, in the first embodiment, the control unit 53 displays the display image G having a size matching the size of the first displayable area in the first displayable area of the first display unit α1. Further, the control unit 53 causes the display image G having a size matching the size of the second displayable area to be displayed in the second displayable area of the second display unit α2.

ステップS120において、制御部53は、表示画像Gの表示期間が終了したか否かを判定する。表示画像Gの表示期間が終了したと制御部53が判定すると(ステップS120で、Yes)、処理がステップS130に移行する。表示画像Gの表示期間が終了していないと制御部53が判定すると(ステップS120で、No)、ステップS120に示す処理が繰り返される。その結果、対象表示部に表示画像Gが表示されている状態が保持される。 In step S120, the control unit 53 determines whether or not the display period of the display image G has expired. When the control unit 53 determines that the display period of the display image G has expired (Yes in step S120), the process proceeds to step S130. When the control unit 53 determines that the display period of the display image G has not ended (No in step S120), the process shown in step S120 is repeated. As a result, the state in which the display image G is displayed on the target display unit is maintained.

ステップS130において、対象表示部から表示画像Gの表示を消すように、制御部53が対象表示部を制御する。従って、対象表示部から表示画像Gの表示が消される。その結果、処理が終了する。なお、第1実施形態では、第1表示部α1、及び第2表示部α2の各々から表示画像Gの表示が消される。 In step S130, the control unit 53 controls the target display unit so as to erase the display of the display image G from the target display unit. Therefore, the display of the display image G is erased from the target display unit. As a result, the process ends. In the first embodiment, the display of the display image G is erased from each of the first display unit α1 and the second display unit α2.

ステップS140において、制御部53は、表示画像Gの表示期間が終了したか否かを判定する。表示画像Gの表示期間が終了したと制御部53が判定すると(ステップS140で、Yes)、処理が終了する。表示画像Gの表示期間が終了していないと制御部53が判定すると(ステップS140で、No)、処理がステップS90に移行する。 In step S140, the control unit 53 determines whether or not the display period of the display image G has expired. When the control unit 53 determines that the display period of the display image G has expired (Yes in step S140), the process ends. When the control unit 53 determines that the display period of the display image G has not ended (No in step S140), the process proceeds to step S90.

以上、図4、及び図5を参照して説明したように、ステップS40において、決定部52は、第1対応情報32と画像場所情報G2とに基づいて対象グループを決定する。そして、ステップS110に示すように、制御部53は、対象表示部に表示画像Gを表示させる。従って、画像表示システムXの利用者は、対象グループを決定する必要がない。その結果、対象グループを決定する作業を容易に行うことができる。 As described above with reference to FIGS. 4 and 5, in step S40, the determination unit 52 determines the target group based on the first correspondence information 32 and the image location information G2. Then, as shown in step S110, the control unit 53 causes the target display unit to display the display image G. Therefore, the user of the image display system X does not need to determine the target group. As a result, the work of determining the target group can be easily performed.

また、ステップS110に示すように、制御部53は、対象表示部の表示可能領域のサイズに合わせたサイズを有する表示画像Gを、対象表示部の表示可能領域に表示させる。従って、表示可能領域を効率的に使用して、表示可能領域に表示画像Gを表示させることが可能になる。 Further, as shown in step S110, the control unit 53 causes the display image G having a size matching the size of the displayable area of the target display unit to be displayed in the displayable area of the target display unit. Therefore, the displayable area can be efficiently used to display the display image G in the displayable area.

次に、図6を参照して、制御装置50の第2の動作について説明する。図6は、制御装置50の第2の動作を示すフロー図である。画像処理装置100及び情報装置200が起動している間、制御装置50が図6に示す処理を実行する。 Next, the second operation of the control device 50 will be described with reference to FIG. FIG. 6 is a flow chart showing a second operation of the control device 50. While the image processing device 100 and the information device 200 are running, the control device 50 executes the process shown in FIG.

図6に示すように、ステップS200において、制御部53は、複数の撮像部βの各々が撮像した画像データを複数の撮像部βの各々から取得する。そして、制御部53は、複数の撮像部βの各々から取得した画像データに対し人物認識処理を実行し、通行人の画像を取得する。その結果、制御部53は、表示部α毎に通行人のデータを取得する。通行人のデータは、例えば、人の通行量を示す。また、制御部53は、通行人の画像に対し顔認識処理を行い、通行人の性別を示すデータ、通行人の年代を示すデータ、及び通行人を特定するための特定データをさらに取得する。 As shown in FIG. 6, in step S200, the control unit 53 acquires the image data captured by each of the plurality of imaging units β from each of the plurality of imaging units β. Then, the control unit 53 executes a person recognition process on the image data acquired from each of the plurality of imaging units β, and acquires an image of a passerby. As a result, the control unit 53 acquires the passerby data for each display unit α. Passerby data indicates, for example, the traffic volume of a person. Further, the control unit 53 performs face recognition processing on the image of the passerby, and further acquires data indicating the gender of the passerby, data indicating the age of the passerby, and specific data for identifying the passerby.

ステップ210において、制御部53は、複数の撮像部βの各々により撮像された通行人の画像に基づいて、第1対応情報32を更新する。 In step 210, the control unit 53 updates the first correspondence information 32 based on the image of the passerby imaged by each of the plurality of imaging units β.

例えば、制御部53は、表示部α毎に、所定の通行人が通過する人数をカウントする。所定の通行人は、例えば、「〇×小学校」に向かう通行人を示す。そして、制御部53は、複数の表示部αのうち、所定の通行人が通過する表示部αのランキングを算出する。そして、ランキングの1位から数えて所定順位までの表示部αを、制御部53が第1グループM1に決定する(図3参照)。なお、制御部53は、表示部α毎に、所定の通行人をカウントし続け、ランキングを更新し続ける。そして、ランキングに変動がある毎に、複数のグループMの各々に含まれる表示部αを変更する。ステップ210に示す処理が終了すると、処理がステップS200に戻る。 For example, the control unit 53 counts the number of people passing by a predetermined passerby for each display unit α. The predetermined passerby indicates, for example, a passerby heading for "○ × elementary school". Then, the control unit 53 calculates the ranking of the display unit α through which a predetermined passerby passes among the plurality of display units α. Then, the control unit 53 determines the display unit α from the first place in the ranking to the predetermined rank in the first group M1 (see FIG. 3). The control unit 53 keeps counting a predetermined passerby for each display unit α and keeps updating the ranking. Then, every time there is a change in the ranking, the display unit α included in each of the plurality of groups M is changed. When the process shown in step 210 is completed, the process returns to step S200.

なお、制御部53は、例えば、下記(i)〜(iii)に示す手順により、表示部αを通過する通行人が、「〇×小学校」に向かう所定の通行人であるか否かを判定する。(i)制御部53は、通行人の画像に対し顔認識処理を行うことで通行人を特定する。(ii)制御部53は、(i)で特定した通行人の位置を複数の撮像部βの画像に基づいて確認する。(iii)(i)で特定した通行人が「〇×小学校」に配置される撮像部βにより撮像されることで、制御部53は、(i)で特定した通行人が「〇×小学校」に向かう所定の通行人であることを判定する。その結果、表示部α毎に、所定の通行人が通過する人数をカウントすることが可能になる。 The control unit 53 determines, for example, whether or not the passerby passing through the display unit α is a predetermined passerby heading for “〇 × elementary school” according to the procedures shown in (i) to (iii) below. To do. (I) The control unit 53 identifies the passerby by performing face recognition processing on the image of the passerby. (Ii) The control unit 53 confirms the position of the passerby specified in (i) based on the images of the plurality of imaging units β. (Iii) The passerby specified in (i) is imaged by the imaging unit β arranged in "○ × elementary school", so that the control unit 53 controls the passerby specified in (i) to be "○ × elementary school". Determined to be a predetermined passerby heading for. As a result, it becomes possible to count the number of people passing by a predetermined passerby for each display unit α.

以上、図6を参照して説明したように、制御部53は、複数の撮像部βの各々により撮像された通行人の画像に基づいて、第1対応情報32を更新する。従って、ステップS40において、決定部52が対象グループを決定する際、最新の通行人の情報を反映させることができる。 As described above with reference to FIG. 6, the control unit 53 updates the first correspondence information 32 based on the image of the passerby imaged by each of the plurality of image pickup units β. Therefore, in step S40, when the determination unit 52 determines the target group, the latest passerby information can be reflected.

なお、画像表示システムXにおいて対象グループを決定するようなデータの解析処理は、クラウド上のサーバーで行われてもよい。 The data analysis process for determining the target group in the image display system X may be performed on a server on the cloud.

[第2実施形態]
図1、及び図7から図9を参照して、本発明の第2実施形態に係る画像表示システムXについて説明する。
[Second Embodiment]
The image display system X according to the second embodiment of the present invention will be described with reference to FIGS. 1 and 7 to 9.

第2実施形態では、算出部51が対象時間を算出する点で第1実施形態と異なる。以下では、第1実施形態と異なる点を主に説明する。 The second embodiment is different from the first embodiment in that the calculation unit 51 calculates the target time. Hereinafter, the differences from the first embodiment will be mainly described.

図1に示すように、記憶部30は、第2対応情報33をさらに記憶する。 As shown in FIG. 1, the storage unit 30 further stores the second correspondence information 33.

次に、図7を参照して、第2対応情報33について説明する。図7は、第2対応情報33を示す図である。 Next, the second correspondence information 33 will be described with reference to FIG. 7. FIG. 7 is a diagram showing the second correspondence information 33.

図7に示すように、第2対応情報33は、第1表示部α1〜第N表示部αNと、第1人数情報Y1〜第N人数情報YNとをそれぞれ対応付けた情報を示す。第n人数情報Ynは、第n表示部αnを通過した通行人の人数と、時刻との関係を示す。第n人数情報Ynにおいて、第n表示部αnを通過した通行人の人数は、単位時刻毎に示される。単位時刻とは、単位時間ごとの時刻を示す。 As shown in FIG. 7, the second correspondence information 33 indicates information in which the first display unit α1 to the Nth display unit αN and the first person information Y1 to the Nth person information YN are associated with each other. The nth number information Yn indicates the relationship between the number of passersby who have passed the nth display unit αn and the time. In the nth number information Yn, the number of passersby who have passed through the nth display unit αn is indicated for each unit time. The unit time indicates the time for each unit time.

第2対応情報33によると、複数の表示部αの各々において、表示部αを通過する通行人の人数が多くなる時間帯が分かる。その結果、表示部αに表示画像Gを表示させたときに、表示画像Gを多くの人目に触れさせることができる時間帯を算出することが可能になる。 According to the second correspondence information 33, in each of the plurality of display units α, it is possible to know the time zone in which the number of passersby passing through the display unit α increases. As a result, when the display image G is displayed on the display unit α, it is possible to calculate a time zone in which the display image G can be exposed to many people.

次に、図8を参照して、制御装置50の第3の動作について説明する。図8は、制御装置50の第3の動作を示すフロー図である。制御装置50は、図4のステップS60に示す処理に代えて、ステップS61に示す処理を実行する。 Next, the third operation of the control device 50 will be described with reference to FIG. FIG. 8 is a flow chart showing a third operation of the control device 50. The control device 50 executes the process shown in step S61 instead of the process shown in step S60 of FIG.

ステップS61において、算出部51は、第2対応情報33(図7参照)に基づいて、対象表示部に表示画像Gを表示させる時刻又は時間帯である対象時間を算出する。算出部51は、例えば、第2対応情報33において、通行人の人数が所定人数Z人よりも多い時間帯を、対象時間として算出する。 In step S61, the calculation unit 51 calculates the target time, which is the time or time zone for displaying the display image G on the target display unit, based on the second correspondence information 33 (see FIG. 7). For example, in the second correspondence information 33, the calculation unit 51 calculates a time zone in which the number of passersby is larger than the predetermined number Z as the target time.

例えば、対象表示部が、第1表示部α1、及び第2表示部α2の場合、算出部51は、第1表示部α1、及び第2表示部α2の各々の対象時間を算出する。この場合、図7に示すように、第1表示部α1では、時間t1〜時間t2の第1時間帯と、時間t3〜時間t4の第2時間帯とで、通行人の人数が所定人数Z人よりも多くなる。従って、算出部51は、第1時間帯と第2時間帯とを、第1表示部α1の対象時間として算出する。また、第2表示部α2では、時間t5〜時間t6の第3時間帯と、時間t7〜時間t8の第4時間帯とで、通行人の人数が所定人数Z人よりも多くなる。従って、算出部51は、第3時間帯と第4時間帯とを、第2表示部α2の対象時間として算出する。 For example, when the target display unit is the first display unit α1 and the second display unit α2, the calculation unit 51 calculates the target time of each of the first display unit α1 and the second display unit α2. In this case, as shown in FIG. 7, in the first display unit α1, the number of passersby is a predetermined number Z in the first time zone of time t1 to time t2 and the second time zone of time t3 to time t4. More than people. Therefore, the calculation unit 51 calculates the first time zone and the second time zone as the target time of the first display unit α1. Further, in the second display unit α2, the number of passersby is larger than the predetermined number Z in the third time zone of time t5 to time t6 and the fourth time zone of time t7 to time t8. Therefore, the calculation unit 51 calculates the third time zone and the fourth time zone as the target time of the second display unit α2.

なお、ユーザーは、入力部20を介して、所定人数Z人を変更することができる。 The user can change the predetermined number of Z people via the input unit 20.

以上、図8を参照して説明したように、ステップS61において、算出部51は、第2対応情報33に基づいて対象時間を算出する。従って、画像表示システムXの利用者は、対象時間を決定する必要がない。その結果、対象時間を決定する作業を容易に行うことができる。 As described above with reference to FIG. 8, in step S61, the calculation unit 51 calculates the target time based on the second correspondence information 33. Therefore, the user of the image display system X does not need to determine the target time. As a result, the work of determining the target time can be easily performed.

次に、図9を参照して、制御装置50の第4の動作について説明する。図9は、制御装置50の第4の動作を示すフロー図である。画像処理装置100及び情報装置200が起動している間、制御装置50が図9に示す処理を実行する。 Next, the fourth operation of the control device 50 will be described with reference to FIG. FIG. 9 is a flow chart showing a fourth operation of the control device 50. While the image processing device 100 and the information device 200 are running, the control device 50 executes the process shown in FIG.

図9に示すように、ステップS300において、制御部53は、表示部α毎に通行人のデータを取得する。なお、ステップS300に示す処理は、ステップS200に示す処理(図6参照)と同様である。 As shown in FIG. 9, in step S300, the control unit 53 acquires passerby data for each display unit α. The process shown in step S300 is the same as the process shown in step S200 (see FIG. 6).

ステップS310において、制御部53は、複数の撮像部βの各々により撮像された通行人の画像に基づいて、第2対応情報33(図7参照)を更新する。例えば、制御部53は、第n表示部αnを通過する通行人を時刻と対応付けてカウントする。そして、制御部53は、カウントした人数を、第2対応情報33の第n表示部αnの人数情報Yに対し、単位時刻毎に区分して追加する追加処理を行う。そして、制御部53は、図9に示す表示部α毎に追加処理を行うことで、第2対応情報33を更新する。ステップ310に示す処理が終了すると、処理がステップS300に戻る。 In step S310, the control unit 53 updates the second correspondence information 33 (see FIG. 7) based on the image of the passerby imaged by each of the plurality of imaging units β. For example, the control unit 53 counts the passersby passing through the nth display unit αn in association with the time. Then, the control unit 53 performs an additional process of adding the counted number of people to the number of people information Y of the nth display unit αn of the second correspondence information 33 by dividing it for each unit time. Then, the control unit 53 updates the second correspondence information 33 by performing additional processing for each display unit α shown in FIG. When the process shown in step 310 is completed, the process returns to step S300.

なお、第2実施形態では、第1対応情報32を更新する処理(図6参照)と、第2対応情報33を更新する処理(図9参照)と並行して実行される。なお、第2実施形態では、第1対応情報32を更新する処理、及び第2対応情報33を更新する処理のうちの一方が実行され、他方が実行されなくてもよい。 In the second embodiment, the process of updating the first correspondence information 32 (see FIG. 6) and the process of updating the second correspondence information 33 (see FIG. 9) are executed in parallel. In the second embodiment, one of the process of updating the first correspondence information 32 and the process of updating the second correspondence information 33 may be executed, and the other may not be executed.

以上、図9を参照して説明したように、制御部53は、複数の撮像部βの各々により撮像された通行人の画像に基づいて、第2対応情報33を更新する。従って、ステップS61において、算出部51が対象時間を算出する際、最新の通行人の情報を反映させることができる。 As described above with reference to FIG. 9, the control unit 53 updates the second correspondence information 33 based on the image of the passerby imaged by each of the plurality of image pickup units β. Therefore, in step S61, when the calculation unit 51 calculates the target time, the latest passerby information can be reflected.

[第3実施形態]
次に、図1、図4、及び図10から図12を参照して、本発明の第3実施形態に係る画像表示システムXについて説明する。
[Third Embodiment]
Next, the image display system X according to the third embodiment of the present invention will be described with reference to FIGS. 1, 4, and 10 to 12.

第3実施形態では、表示部αを通過する通行人の属性に合わせて、表示部αに表示画像Gを表示するか否かを決定する点が第1実施形態、及び第2実施形態と異なる。以下では、第1実施形態、及び第2実施形態と異なる点を主に説明する。 The third embodiment is different from the first embodiment and the second embodiment in that it is determined whether or not to display the display image G on the display unit α according to the attributes of passersby passing through the display unit α. .. Hereinafter, the differences from the first embodiment and the second embodiment will be mainly described.

図1に示すように、記憶部30は、第3対応情報34をさらに記憶する。 As shown in FIG. 1, the storage unit 30 further stores the third correspondence information 34.

次に、図10を参照して、第3対応情報34について説明する。図10は、第3対応情報34を示す図である。 Next, the third correspondence information 34 will be described with reference to FIG. FIG. 10 is a diagram showing a third correspondence information 34.

図10に示すように、第3対応情報34は、第1イベント情報〜第Pイベント情報と、第1イベント属性〜第Pイベント属性とをそれぞれ対応付けた情報を示す。Pは、2以上の整数である。第pイベント属性は、第pイベント情報に適合する人物の属性を示す。pは、1以上P以下の整数である。属性は、例えば、性別、子供、大人、及び/又は、年代を示す。第3実施形態では、第1イベント情報である「イベントF」と、第1イベント属性である「大人」とが対応付けられる。また、第2イベント情報である「イベントH」と、第2イベント属性である「子供」とが対応付けられる。 As shown in FIG. 10, the third correspondence information 34 indicates information in which the first event information to the P event information and the first event attribute to the P event attribute are associated with each other. P is an integer of 2 or more. The p-event attribute indicates an attribute of a person who matches the p-event information. p is an integer of 1 or more and P or less. Attributes indicate, for example, gender, children, adults, and / or age. In the third embodiment, the first event information "event F" and the first event attribute "adult" are associated with each other. Further, the second event information "event H" and the second event attribute "child" are associated with each other.

次に、図11、及び図12を参照して、制御装置50の第5の動作について説明する。図11は、制御装置50の第5の動作を示す第1フロー図である。図12は、制御装置50の第5の動作を示す第2フロー図である。 Next, the fifth operation of the control device 50 will be described with reference to FIGS. 11 and 12. FIG. 11 is a first flow chart showing a fifth operation of the control device 50. FIG. 12 is a second flow chart showing a fifth operation of the control device 50.

なお、第3実施形態では、第n表示部αnは、対象表示部である。 In the third embodiment, the nth display unit αn is a target display unit.

図4、及び図11に示すように、ステップS80に示す処理が終了すると、ステップS81に移行する。 As shown in FIGS. 4 and 11, when the process shown in step S80 is completed, the process proceeds to step S81.

図11に示すように、ステップS81において、算出部51は、表示画像Gに基づいて、画像イベント情報G1を算出する。なお、第3実施形態では、算出部51により算出された画像イベント情報G1は、「イベントF」である。 As shown in FIG. 11, in step S81, the calculation unit 51 calculates the image event information G1 based on the display image G. In the third embodiment, the image event information G1 calculated by the calculation unit 51 is "event F".

ステップS82において、制御部53は、画像イベント情報G1、及び第3対応情報34(図10参照)に基づいて、第1適合属性(適合属性)を算出する。制御部53は、第3対応情報34において、画像イベント情報G1と対応するイベント属性を、第1適合属性として算出する。言い換えれば、第1適合属性は、画像イベント情報G1に適合する人物の属性を示す。 In step S82, the control unit 53 calculates the first conformity attribute (conformity attribute) based on the image event information G1 and the third correspondence information 34 (see FIG. 10). In the third correspondence information 34, the control unit 53 calculates the event attribute corresponding to the image event information G1 as the first conformity attribute. In other words, the first conforming attribute indicates an attribute of a person who conforms to the image event information G1.

第3実施形態では、画像イベント情報G1は、「イベントF」である。従って、第3実施形態では、制御部53は、第1適合属性として「大人」を算出する。 In the third embodiment, the image event information G1 is "event F". Therefore, in the third embodiment, the control unit 53 calculates "adult" as the first conformity attribute.

図11、及び図12に示すように、ステップS110に示す処理が終了すると、処理がステップS111に移行する。 As shown in FIGS. 11 and 12, when the process shown in step S110 is completed, the process shifts to step S111.

ステップS111において、制御部53は、第n撮像部から取得した画像データに対し人物認識処理を実行し、第n撮像部が通行人を撮像しているか否かをリアルタイムで判定する。以下では、第n撮像部が撮像している通行人を、被撮像人と記載する。 In step S111, the control unit 53 executes a person recognition process on the image data acquired from the nth imaging unit, and determines in real time whether or not the nth imaging unit is imaging a passerby. In the following, a passerby imaged by the nth imaging unit will be referred to as an imaged person.

被撮像人がいると制御部53が判定すると(ステップS111で、Yes)、処理がステップS112に移行する。被撮像人がいるとは、第n表示部が撮像している画像に通行人が写っていることを示す。これに対し、被撮像人がいないと制御部53が判定すると(ステップS111で、No)、処理がステップS120に移行する。被撮像人がいないとは、第n撮像部βnが撮像している画像に通行人が写っていないことを示す。 When the control unit 53 determines that there is an image recipient (Yes in step S111), the process shifts to step S112. The presence of an imaged person means that a passerby is shown in the image captured by the nth display unit. On the other hand, when the control unit 53 determines that there is no person to be imaged (No in step S111), the process proceeds to step S120. The fact that there is no person to be imaged means that no passerby is shown in the image captured by the nth imaging unit βn.

ステップS112において、第n撮像部βnが通行人を撮像すると、制御部53は、被撮像人の画像に基づいて、被撮像人の属性を算出する。制御部53は、例えば、被撮像人の画像に対し顔認識処理を行い、被撮像人の属性を算出する。第3実施形態では、制御部53は、被撮像人が「大人」及び「子供」のうちのいずれの属性を有するかを算出する。制御部53は、例えば、被撮像人の画像に対し顔認識処理を行い、被撮像人の年代が所定の年代よりも上であると判定すると、被撮像人の属性が「大人」であると算出する。また、制御部53は、被撮像人の画像に対し顔認識処理を行い、被撮像人の年代が所定の年代以下であると判定すると、被撮像人の属性が「子供」であると算出する。 In step S112, when the nth imaging unit βn images a passerby, the control unit 53 calculates the attributes of the imaged person based on the image of the imaged person. The control unit 53 performs face recognition processing on the image of the imaged person, for example, and calculates the attributes of the imaged person. In the third embodiment, the control unit 53 calculates which of the "adult" and "child" attributes the subject has. For example, when the control unit 53 performs face recognition processing on the image of the imaged person and determines that the age of the imaged person is older than a predetermined age, the control unit 53 determines that the attribute of the imaged person is "adult". calculate. Further, the control unit 53 performs face recognition processing on the image of the imaged person, and when it is determined that the age of the imaged person is equal to or less than a predetermined age, it calculates that the attribute of the imaged person is "child". ..

ステップS113において、制御部53は、被撮像人が第1適合属性を有するか否かを判定する。具体的には、ステップS112で算出された被撮像人の属性が、ステップS82(図11参照)で算出された第1適合属性に含まれるか否かを判定する。被撮像人が第1適合属性を有すると制御部53が判定した場合(ステップS113で、Yes)、処理がステップS120に移行する。被撮像人が第1適合属性を有しないと制御部53が判定した場合(ステップS113で、No)、処理がステップS114に移行する。 In step S113, the control unit 53 determines whether or not the image subject has the first conformity attribute. Specifically, it is determined whether or not the attribute of the person to be imaged calculated in step S112 is included in the first conformity attribute calculated in step S82 (see FIG. 11). When the control unit 53 determines that the image subject has the first conformity attribute (Yes in step S113), the process proceeds to step S120. When the control unit 53 determines that the image recipient does not have the first conformity attribute (No in step S113), the process proceeds to step S114.

第3実施形態では、第1適合属性が「大人」である。従って、被撮像人の属性が「大人」の場合、被撮像人が第1適合属性を有する。その結果、処理がステップS120に移行する。なお、第3実施形態では、第n撮像部βnの前に「大人」がいると、第n表示部αnから表示画像Gの表示が消えず、表示画像Gの表示された状態が保持される。 In the third embodiment, the first conforming attribute is "adult". Therefore, when the attribute of the imaged person is "adult", the imaged person has the first conformity attribute. As a result, the process proceeds to step S120. In the third embodiment, when an "adult" is present in front of the nth imaging unit βn, the display of the display image G does not disappear from the nth display unit αn, and the displayed state of the display image G is maintained. ..

これに対し、被撮像人の属性が「子供」の場合、被撮像人が第1適合属性を有しない。その結果、処理がステップS114に移行する。 On the other hand, when the attribute of the imaged person is "child", the imaged person does not have the first conformity attribute. As a result, the process proceeds to step S114.

ステップS114において、被撮像人が第1適合属性を有しないと制御部53が判定すると、第n表示部αnが表示画像Gを表示しないように制御部53が第n表示部αnを制御する。その結果、第n表示部αnから表示画像Gの表示が消える。第3実施形態では、第n撮像部βnの前に「子供」がいると、第n表示部αnから表示画像Gの表示が消える。 In step S114, when the control unit 53 determines that the image subject does not have the first conformity attribute, the control unit 53 controls the nth display unit αn so that the nth display unit αn does not display the display image G. As a result, the display of the display image G disappears from the nth display unit αn. In the third embodiment, if there is a "child" in front of the nth imaging unit βn, the display of the display image G disappears from the nth display unit αn.

ステップS115において、制御部53は、第1適合属性を有しない被撮像人がいるか否かを判定する。詳細には、制御部53は、第n撮像部βnから取得した画像データに対し人物認識処理を実行し、第1適合属性を有しない被撮像人がいるか否かをリアルタイムで判定する。第3実施形態では、制御部53は、第n撮像部βnの前に「子供」がまだいるか否かを判定する。 In step S115, the control unit 53 determines whether or not there is an image subject who does not have the first conformity attribute. Specifically, the control unit 53 executes a person recognition process on the image data acquired from the nth image pickup unit βn, and determines in real time whether or not there is an imaged person who does not have the first conformity attribute. In the third embodiment, the control unit 53 determines whether or not there is still a "child" in front of the nth imaging unit βn.

第1適合属性を有しない被撮像人がいると制御部53が判定した場合(ステップS115で、Yes)、ステップ115に示す処理が繰り返される。その結果、第n表示部αnから表示画像Gの表示が消えた状態が保持される。なお、第3実施形態では、「子供」が第n撮像部βnの前にまだいる場合、第n表示部αnから表示画像Gの表示が消えた状態が保持される。 When the control unit 53 determines that there is an image subject who does not have the first conformity attribute (Yes in step S115), the process shown in step 115 is repeated. As a result, the state in which the display of the display image G disappears from the nth display unit αn is maintained. In the third embodiment, when the "child" is still in front of the nth image pickup unit βn, the state in which the display of the display image G disappears from the nth display unit αn is maintained.

これに対し、第1適合属性を有しない被撮像人がいないと制御部53が判定した場合(ステップS115で、No)、処理がステップS116に移行する。 On the other hand, when the control unit 53 determines that there is no subject having no first conformity attribute (No in step S115), the process proceeds to step S116.

ステップS116において、第n表示部αnが表示画像Gを表示するように制御部53が第n表示部αnを制御する。その結果、第n表示部αnに表示画像Gが表示される。なお、第3実施形態では、「子供」が第n撮像部βnの前からいなくなると、第n表示部αnに表示画像Gが表示される。ステップS116に示す処理が終了すると、処理がステップS120に移行する。 In step S116, the control unit 53 controls the nth display unit αn so that the nth display unit αn displays the display image G. As a result, the display image G is displayed on the nth display unit αn. In the third embodiment, when the "child" disappears from the front of the nth imaging unit βn, the display image G is displayed on the nth display unit αn. When the process shown in step S116 is completed, the process proceeds to step S120.

ステップS120において、制御部53は、表示画像Gの表示期間が終了したか否かを判定する。表示画像Gの表示期間が終了したと制御部53が判定すると(ステップS120で、Yes)、処理がステップS130に移行する。表示画像Gの表示期間が終了していないと制御部53が判定すると(ステップS120で、No)、処理がステップS111に移行する。 In step S120, the control unit 53 determines whether or not the display period of the display image G has expired. When the control unit 53 determines that the display period of the display image G has expired (Yes in step S120), the process proceeds to step S130. When the control unit 53 determines that the display period of the display image G has not ended (No in step S120), the process proceeds to step S111.

以上、図11、及び図12を参照して説明したように、ステップS113及びステップS114において、被撮像人が第1適合属性を有しない場合、第n表示部αnが表示画像Gを表示しないように制御部53が第n表示部αnを制御する。従って、表示画像Gの表示期間中に、被撮像人の属性に合わせて、表示画像Gを第n表示部αnに表示させている状態と、表示画像Gを第n表示部αnに表示させていない状態とを切り替えることが可能になる。 As described above with reference to FIGS. 11 and 12, in step S113 and step S114, when the image subject does not have the first conformity attribute, the nth display unit αn does not display the display image G. The control unit 53 controls the nth display unit αn. Therefore, during the display period of the display image G, the display image G is displayed on the nth display unit αn and the display image G is displayed on the nth display unit αn according to the attributes of the person to be imaged. It becomes possible to switch between the non-existent state.

[第4実施形態]
図1、図13、及び図14を参照して、本発明の第4実施形態に係る画像表示システムXについて説明する。
[Fourth Embodiment]
The image display system X according to the fourth embodiment of the present invention will be described with reference to FIGS. 1, 13, and 14.

第4実施形態では、被撮像人の属性に合わせて第n表示部αnに表示される表示画像Gが変更される点が第1実施形態〜第3実施形態と異なる。以下では、第1実施形態〜第3実施形態と異なる点を主に説明する。 The fourth embodiment is different from the first to third embodiments in that the display image G displayed on the nth display unit αn is changed according to the attributes of the person to be imaged. Hereinafter, the differences from the first to third embodiments will be mainly described.

図1に示すように、記憶部30は、第4対応情報35をさらに記憶する。 As shown in FIG. 1, the storage unit 30 further stores the fourth correspondence information 35.

次に、図13を参照して、第4対応情報35について説明する。図13は、第4対応情報35を示す図である。 Next, the fourth correspondence information 35 will be described with reference to FIG. FIG. 13 is a diagram showing the fourth correspondence information 35.

図13に示すように、第4対応情報35は、第1表示画像J1〜第Q表示画像JQと、第1画像属性K1〜第Q画像属性KQとをそれぞれ対応付けた情報を示す。Qは、2以上の整数を示す。第q画像属性Kqは、第q表示画像Jqに適合する人物の属性を示す。qは、1以上、Q以下の整数である。第4実施形態では、第1表示画像J1には、第1画像属性K1である「大人」が対応付けられる。第2表示画像J2には、第2画像属性K2である「子供」が対応付けられる。 As shown in FIG. 13, the fourth correspondence information 35 indicates information in which the first display image J1 to the Q display image JQ and the first image attribute K1 to the Qth image attribute KQ are associated with each other. Q indicates an integer of 2 or more. The qth image attribute Kq indicates an attribute of a person who matches the qth display image Jq. q is an integer greater than or equal to 1 and less than or equal to Q. In the fourth embodiment, the first display image J1 is associated with an "adult" having the first image attribute K1. The second display image J2 is associated with a "child" having the second image attribute K2.

次に、図14を参照して、制御装置50の第6の動作について説明する。図14は、制御装置50の第6の動作を示すフロー図である。 Next, the sixth operation of the control device 50 will be described with reference to FIG. FIG. 14 is a flow chart showing a sixth operation of the control device 50.

図14に示すように、ステップS400において、制御部53は、第n撮像部βnから取得した画像データに対し人物認識処理を実行し、第n撮像部βnが通行人を撮像しているか否かをリアルタイムで判定する。被撮像人がいると制御部53が判定すると(ステップS400で、Yes)、処理がステップS410に移行する。被撮像人がいないと制御部53が判定すると(ステップS400で、No)、ステップS400に示す処理が繰り返される。 As shown in FIG. 14, in step S400, the control unit 53 executes a person recognition process on the image data acquired from the nth image pickup unit βn, and whether or not the nth image pickup unit βn images a passerby. Is determined in real time. When the control unit 53 determines that there is an image recipient (Yes in step S400), the process shifts to step S410. When the control unit 53 determines that there is no person to be imaged (No in step S400), the process shown in step S400 is repeated.

ステップS410において、第n撮像部βnが通行人を撮像すると、制御部53は、被撮像人の画像に基づいて、被撮像人の属性を算出する。第4実施形態では、制御部53は、被撮像人が「大人」及び「子供」のうちのいずれの属性を有するかを算出する。 In step S410, when the nth imaging unit βn images a passerby, the control unit 53 calculates the attributes of the imaged person based on the image of the imaged person. In the fourth embodiment, the control unit 53 calculates which of the "adult" and "child" attributes the subject has.

ステップS420において、制御部53は、第4対応情報35と、被撮像人の属性とに基づいて、適合画像を算出する。制御部53は、第4対応情報35において、被撮像人の属性を含む画像属性Kに対応する表示画像Gを、適合画像として算出する。言い換えれば、適合画像は、複数の表示画像Gのうち被撮像人の属性に適合する表示画像Gを示す。 In step S420, the control unit 53 calculates a conforming image based on the fourth correspondence information 35 and the attributes of the person to be imaged. In the fourth correspondence information 35, the control unit 53 calculates the display image G corresponding to the image attribute K including the attribute of the imaged person as a conforming image. In other words, the conforming image indicates a display image G that matches the attributes of the imaged person among the plurality of display images G.

第4実施形態では、被撮像人が「大人」の場合、適合画像は第1表示画像J1である。これに対し、被撮像人が「子供」の場合、適合画像は第2表示画像J2である。 In the fourth embodiment, when the person to be imaged is an "adult", the conforming image is the first display image J1. On the other hand, when the person to be imaged is a "child", the conforming image is the second display image J2.

ステップS430において、第n表示部αnが適合画像を表示するように、制御部53が第n表示部αnを制御する。その結果、第n表示部αnには、適合画像が表示される。なお、第4実施形態では、被撮像人が「大人」の場合、第n表示部αnには第1表示画像J1が表示される。これに対し、被撮像人が「子供」の場合、第n表示部αnには第2表示画像J2が表示される。 In step S430, the control unit 53 controls the nth display unit αn so that the nth display unit αn displays the conforming image. As a result, a conforming image is displayed on the nth display unit αn. In the fourth embodiment, when the person to be imaged is an "adult", the first display image J1 is displayed on the nth display unit αn. On the other hand, when the person to be imaged is a "child", the second display image J2 is displayed on the nth display unit αn.

ステップS440において、制御部53は、第2適合属性を有する被撮像人がいるか否かを判定する。詳細には、制御部53は、第n撮像部βnから取得した画像データに対し人物認識処理を実行し、第2適合属性を有する被撮像人がいるか否かをリアルタイムで判定する。第2適合属性は、第4対応情報35において、適合画像に対応する人物の属性を示す。 In step S440, the control unit 53 determines whether or not there is an image subject having the second conformity attribute. Specifically, the control unit 53 executes a person recognition process on the image data acquired from the nth image pickup unit βn, and determines in real time whether or not there is an imaged person having the second conformity attribute. The second conforming attribute indicates the attribute of the person corresponding to the conforming image in the fourth correspondence information 35.

第2適合属性を有する被撮像人がいると制御部53が判定した場合(ステップS440で、Yes)、ステップS440に示す処理が繰り返される。その結果、第n表示部αnに適合画像が表示されている状態が保持される。第4実施形態では、第n撮像部βnが撮像している画像に「大人」が写っていると、第n表示部αnに第1表示画像J1が表示され続ける。これに対し、第n撮像部βnが撮像している画像に「子供」が写っていると、第n表示部αnに第2表示画像J2が表示され続ける。 When the control unit 53 determines that there is an image subject having the second conformity attribute (Yes in step S440), the process shown in step S440 is repeated. As a result, the state in which the conforming image is displayed on the nth display unit αn is maintained. In the fourth embodiment, when an "adult" is captured in the image captured by the nth imaging unit βn, the first display image J1 continues to be displayed on the nth display unit αn. On the other hand, when a "child" is shown in the image captured by the nth imaging unit βn, the second display image J2 continues to be displayed on the nth display unit αn.

第2適合属性を有する被撮像人がいないと制御部53が判定した場合(ステップS440で、No)、処理がステップS450に移行する。 When the control unit 53 determines that there is no subject having the second conformity attribute (No in step S440), the process proceeds to step S450.

ステップS450において、対象表示部から表示画像Gの表示を消すように、制御部53が第n表示部αnを制御する。その結果、第n表示部αnから表示画像Gの表示が消される。なお、第4実施形態では、「大人」が第n表示部αnを通過し、第n撮像部βnに映らなくなると、第n表示部αnから第1表示画像J1の表示が消される。これに対し、「子供」が第n表示部αnを通過し、第n撮像部βnに映らなくなると、第n表示部αnから第2表示画像J2の表示が消される。 In step S450, the control unit 53 controls the nth display unit αn so as to erase the display of the display image G from the target display unit. As a result, the display of the display image G is erased from the nth display unit αn. In the fourth embodiment, when the "adult" passes through the nth display unit αn and is no longer reflected in the nth imaging unit βn, the display of the first display image J1 is erased from the nth display unit αn. On the other hand, when the "child" passes through the nth display unit αn and is no longer reflected in the nth imaging unit βn, the display of the second display image J2 is erased from the nth display unit αn.

ステップS450に示す処理が終了すると、処理がステップS400に戻る。 When the process shown in step S450 is completed, the process returns to step S400.

以上、図14を参照して説明したように、ステップS440において、第2適合属性を有する被撮像人がいる間、第n表示部αnが適合画像を表示するように、制御部53が第n表示部αnを制御する。従って、第n表示部αnに対し、被撮像人の属性に合わせた表示画像Gを表示させることが可能になる。 As described above with reference to FIG. 14, in step S440, the control unit 53 displays the conforming image while the image subject having the second conforming attribute is present, so that the nth display unit αn displays the conforming image. The display unit αn is controlled. Therefore, it is possible to cause the nth display unit αn to display the display image G that matches the attributes of the imaged person.

[第5実施形態]
図15を参照して、画像形成装置300について説明する。図15は、画像形成装置300を示す模式的断面図である。
[Fifth Embodiment]
The image forming apparatus 300 will be described with reference to FIG. FIG. 15 is a schematic cross-sectional view showing the image forming apparatus 300.

画像形成装置300は、搬送部1と、入力部2と、読取部3と、カセット4と、給送ローラー5aと、搬送ローラー5bと、排出ローラー5cと、画像形成部6と、記憶装置7と、制御装置9とを備える。 The image forming apparatus 300 includes a conveying unit 1, an input unit 2, a reading unit 3, a cassette 4, a feeding roller 5a, a conveying roller 5b, a discharging roller 5c, an image forming unit 6, and a storage device 7. And a control device 9.

搬送部1は、読み取り対象の画像を有するシートを、読取部3に向けて搬送する。読取部3は、シートを走査して、画像データを取得する。入力部2は、画像形成装置300に対するユーザーからの指示を受け付ける。表示部2aは、タッチパネルとして機能する。この場合、入力部2は、タッチパネルを含む。 The transport unit 1 transports the sheet having the image to be read toward the reading unit 3. The reading unit 3 scans the sheet to acquire image data. The input unit 2 receives an instruction from the user to the image forming apparatus 300. The display unit 2a functions as a touch panel. In this case, the input unit 2 includes a touch panel.

カセット4は、シートTを収容する。給送ローラー5aは、カセット4内のシートTを送出する。搬送ローラー5bは、給送ローラー5aから搬送されたシートTを、画像形成部6に向けて送出する。 The cassette 4 houses the sheet T. The feeding roller 5a sends out the sheet T in the cassette 4. The transport roller 5b sends the sheet T transported from the feed roller 5a toward the image forming unit 6.

画像形成部6は、シートTに画像を形成する。画像は、具体的には、トナー画像を示す。画像形成部6は、感光体ドラムと、帯電部と、露光部と、現像部と、転写部と、クリーニング部と、除電部とを含む。感光体ドラム、帯電部、露光部、現像部、及び転写部によって、シートTに画像が形成される。クリーニング部は、感光体ドラムの表面に残留しているトナーを除去する。除電部は、感光体ドラムの表面の残留電荷を除去する。画像形成部6は、シートTに画像を形成した後、シートTを定着部に向けて送出する。定着部は、画像を加熱及び加圧してシートTに定着させる。なお、画像形成部6は、ノズルを有し、ノズルからインクを吐出して、シートTに画像を形成してもよい。 The image forming unit 6 forms an image on the sheet T. The image specifically shows a toner image. The image forming unit 6 includes a photoconductor drum, a charging unit, an exposure unit, a developing unit, a transfer unit, a cleaning unit, and a static elimination unit. An image is formed on the sheet T by the photoconductor drum, the charging unit, the exposure unit, the developing unit, and the transfer unit. The cleaning unit removes the toner remaining on the surface of the photoconductor drum. The static eliminator removes residual charges on the surface of the photoconductor drum. After forming an image on the sheet T, the image forming unit 6 sends the sheet T toward the fixing unit. The fixing portion heats and pressurizes the image to fix it on the sheet T. The image forming unit 6 may have a nozzle and eject ink from the nozzle to form an image on the sheet T.

排出ローラー5cは、画像形成部6を通過したシートTを、画像形成装置300の筐体の外部へ排出する。 The discharge roller 5c discharges the sheet T that has passed through the image forming unit 6 to the outside of the housing of the image forming apparatus 300.

記憶装置7は、制御装置9によって実行される種々のコンピュータープログラムを記憶する。 The storage device 7 stores various computer programs executed by the control device 9.

通信装置8は、LAN(Local Area Network)などのネットワーク網Nを介して情報装置200と通信する。 The communication device 8 communicates with the information device 200 via a network network N such as a LAN (Local Area Network).

制御装置9は、搬送部1と、入力部2と、読取部3と、カセット4と、給送ローラー5aと、搬送ローラー5bと、画像形成部6と、排出ローラー5cと、記憶装置7と、通信装置8とを制御する。 The control device 9 includes a transport unit 1, an input unit 2, a reader 3, a cassette 4, a feed roller 5a, a transport roller 5b, an image forming unit 6, a discharge roller 5c, and a storage device 7. , Controls the communication device 8.

画像形成装置300は、画像処理装置100として機能する。詳細には、画像形成装置300の読取部3は、画像処理装置100の読取部10として機能する。画像形成装置300の入力部2は、画像処理装置100の入力部20として機能する。画像形成装置300の記憶装置7は、画像処理装置100の記憶部30として機能する。画像形成装置300の通信装置8は、画像処理装置100の通信部40として機能する。画像形成装置300の制御装置9は、画像処理装置100の制御装置50として機能する。その結果、画像形成装置300を画像処理装置100として利用することが可能になる。また、店舗に配置されている画像形成装置300を利用して、画像表示システムXを構成することが可能になる。 The image forming apparatus 300 functions as an image processing apparatus 100. Specifically, the reading unit 3 of the image forming apparatus 300 functions as the reading unit 10 of the image processing apparatus 100. The input unit 2 of the image forming apparatus 300 functions as the input unit 20 of the image processing apparatus 100. The storage device 7 of the image forming device 300 functions as a storage unit 30 of the image processing device 100. The communication device 8 of the image forming apparatus 300 functions as a communication unit 40 of the image processing apparatus 100. The control device 9 of the image forming device 300 functions as the control device 50 of the image processing device 100. As a result, the image forming apparatus 300 can be used as the image processing apparatus 100. In addition, the image display system X can be configured by using the image forming apparatus 300 arranged in the store.

以上、図面(図1〜図15)を参照しながら本発明の実施形態について説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である(例えば、(1)〜(6))。また、上記の実施形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明の形成が可能である。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の個数等は、図面作成の都合から実際とは異なる場合もある。また、上記の実施形態で示す各構成要素は一例であって、特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能である。 The embodiments of the present invention have been described above with reference to the drawings (FIGS. 1 to 15). However, the present invention is not limited to the above-described embodiment, and can be implemented in various embodiments without departing from the gist thereof (for example, (1) to (6)). In addition, various inventions can be formed by appropriately combining a plurality of the constituent elements disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. The drawings are schematically shown mainly for each component for easy understanding, and the number of each component shown may differ from the actual one due to the convenience of drawing. Further, each component shown in the above embodiment is an example, and is not particularly limited, and various modifications can be made without substantially deviating from the effect of the present invention.

(1)第3実施形態のステップS111〜ステップS114において、第n撮像部βnが第1適合属性を有しない被撮像人を撮像すると、第n表示部αnから表示画像Gの表示が消える。しかし、第n撮像部βnが第1適合属性を有しない被撮像人と第1適合属性を有する被撮像人とを同時に撮像した場合、第n表示部αnから表示画像Gの表示が消えず、表示画像Gの表示が保持されてもよい。例えば、第1適合属性が「大人」であった場合、「子供」のみが第n表示部αnの位置する場所を通ると第n表示部αnから表示画像Gの表示が消えるが、「子供」に「大人」が同伴していると第n表示部αnから表示画像Gの表示が消えなくてもよい。 (1) In steps S111 to S114 of the third embodiment, when the n-th imaging unit βn images an imaged person who does not have the first conformity attribute, the display of the display image G disappears from the n-th display unit αn. However, when the nth imaging unit βn simultaneously images an imaged person who does not have the first conforming attribute and an imaged person who has the first conforming attribute, the display of the display image G does not disappear from the nth display unit αn. The display of the display image G may be retained. For example, when the first conformity attribute is "adult", the display of the display image G disappears from the nth display unit αn when only the "child" passes through the place where the nth display unit αn is located, but the "child" is displayed. When an "adult" is accompanied, the display of the display image G does not have to disappear from the nth display unit αn.

(2)第1実施形態〜第5実施形態において、例えば、駅に配置される表示部αにコンビニエンスストアのような商業施設で販売されている商品の在庫を示す画像をイベント情報として表示させてもよい。その結果、駅を利用する通行人は、駅から移動する途中に利用する商業施設を決定することが可能になる。 (2) In the first to fifth embodiments, for example, an image showing the inventory of products sold in a commercial facility such as a convenience store is displayed as event information on the display unit α arranged at the station. May be good. As a result, passers-by who use the station can decide which commercial facility to use on the way from the station.

(3)第1実施形態〜第3実施形態において、複数の表示部αが配置される地域の天気を予測する天気情報を制御部53がインターネットを介して取得してデータベースに登録してもよい。この場合、制御部53は、複数の表示部αが配置される地域の天気を、天気情報に基づいて予測し、予測した天気に合わせて対象グループに表示画像Gを表示させる時間帯を決定してもよい。例えば、制御部53は、晴れ、又は、曇りと予測する時間帯を、表示画像Gを表示させる時間帯に決定する。その結果、表示画像Gを表示させる時間帯に決定する際、天気を反映させることが可能になる。 (3) In the first to third embodiments, the control unit 53 may acquire the weather information for predicting the weather in the area where the plurality of display units α are arranged via the Internet and register it in the database. .. In this case, the control unit 53 predicts the weather in the area where the plurality of display units α are arranged based on the weather information, and determines the time zone for displaying the display image G in the target group according to the predicted weather. You may. For example, the control unit 53 determines a time zone for predicting that it is sunny or cloudy as a time zone for displaying the display image G. As a result, it becomes possible to reflect the weather when determining the time zone for displaying the display image G.

(4)第1実施形態〜第3実施形態において、複数のユーザーの間で、同一の表示部αに表示画像Gを表示させる時間帯が競合した場合、例えば、先着順で表示部αに表示画像Gを表示させることができるユーザーを決定してもよい。また、表示画像Gを表示させる時間帯を、複数のユーザーの間で分配してもよい。この場合、例えば、料金を多く支払ったユーザーのほうが分配される時間が長くなる。 (4) In the first to third embodiments, when the time zones for displaying the display image G on the same display unit α conflict among a plurality of users, for example, they are displayed on the display unit α on a first-come-first-served basis. The user who can display the image G may be determined. Further, the time zone for displaying the display image G may be distributed among a plurality of users. In this case, for example, the user who paid a large amount of money will be distributed for a longer time.

(5)第1実施形態〜第3実施形態において、画像表示システムXを利用するユーザーの属性に応じて、対象グループに表示画像Gを表示させるために必要な料金の額を変更してもよい。この場合、料金算出部54は、例えば、画像イベント情報G1(図2参照)に基づいて画像表示システムXの利用者の属性を算出し、ユーザーの属性に基づいて料金を算出する。例えば、企業よりも個人の方が、料金が安くなるように、料金算出部54が料金を算出する。その結果、画像表示システムXの利用者の属性を反映させた料金を算出することが可能になる。 (5) In the first to third embodiments, the amount of the charge required to display the display image G in the target group may be changed according to the attribute of the user who uses the image display system X. .. In this case, the charge calculation unit 54 calculates the attributes of the user of the image display system X based on, for example, the image event information G1 (see FIG. 2), and calculates the charge based on the attributes of the user. For example, the charge calculation unit 54 calculates the charge so that the charge is cheaper for an individual than for a company. As a result, it becomes possible to calculate the charge that reflects the attributes of the user of the image display system X.

(6)自動車のような車両に表示部αを配置してもよい。この場合、例えば、通行止めが発生すると、通行止めが発生していることを示す通行止め画像を読取部10で読み取る。そして、通行止めが発生している場所の近くを走行している車両の表示部αに、画像処理装置100の通信部40を介して通行止め画像を送信する。そして、車両の表示部αに通行止め画像をイベント情報として表示させる。その結果、車両のドライバーは、通行止めが発生していることを認識することが可能になる。 (6) The display unit α may be arranged in a vehicle such as an automobile. In this case, for example, when a traffic closure occurs, the reading unit 10 reads a traffic closure image indicating that the traffic closure has occurred. Then, the closed image is transmitted to the display unit α of the vehicle traveling near the place where the closed road is generated via the communication unit 40 of the image processing device 100. Then, the traffic closure image is displayed as event information on the display unit α of the vehicle. As a result, the driver of the vehicle can recognize that the road closure has occurred.

なお、カーナビゲーションを表示部αとして利用してもよい。また、カーナビゲーションを表示部αとして利用する場合、カーナビゲーションの通信機能を利用して、表示部αが画像処理装置100の通信部40と通信してもよい。なお、カーナビゲーションを表示部αとして利用する場合、画像処理装置100の制御部53は、カーナビゲーションに表示させる画像を文字情報だけで構成された簡素な画像に加工し、加工後の画像をカーナビゲーションに表示させてもよい。つまり、カーナビゲーションの画面が、デジタルサイネージで利用される一般的な表示部αの画面よりも小さい点を考慮して、制御部53がカーナビゲーションに表示させる表示画像Gを簡素な画像に加工してもよい。その結果、カーナビゲーションの画面のサイズに合わせた画像を形成することが可能になる。 The car navigation system may be used as the display unit α. Further, when the car navigation is used as the display unit α, the display unit α may communicate with the communication unit 40 of the image processing device 100 by using the communication function of the car navigation. When the car navigation system is used as the display unit α, the control unit 53 of the image processing device 100 processes the image to be displayed on the car navigation system into a simple image composed of only character information, and the processed image is processed into a car. It may be displayed in the navigation. That is, in consideration of the fact that the car navigation screen is smaller than the screen of the general display unit α used in digital signage, the display image G to be displayed on the car navigation by the control unit 53 is processed into a simple image. You may. As a result, it becomes possible to form an image that matches the size of the car navigation screen.

本発明は、画像処理装置、及び画像表示システムの分野に利用可能である。 The present invention can be used in the fields of image processing devices and image display systems.

10 読取部
30 記憶部
32 第1対応情報
33 第2対応情報
34 第3対応情報
51 算出部
52 決定部
53 制御部
100 画像処理装置
200 情報装置
G 表示画像
G1 画像イベント情報
G2 画像場所情報
L 場所情報
M グループ
S シート
X 画像表示システム
α 表示部
αn 第n表示部
β 撮像部
10 Reading unit 30 Storage unit 32 First correspondence information 33 Second correspondence information 34 Third correspondence information 51 Calculation unit 52 Decision unit 53 Control unit 100 Image processing device 200 Information device G Display image G1 Image event information G2 Image location information L Location Information M Group S Sheet X Image display system α Display unit αn Nth display unit β Imaging unit

Claims (9)

互いに異なる場所に配置される第1表示部〜第N(Nは2以上の整数)表示部を含む情報装置を用いた画像処理装置であって、
シートに形成された表示画像を読み取る読取部と、
前記表示画像に基づいて、前記表示画像に表示された画像場所情報を算出する算出部と、
複数の場所情報と、複数のグループとをそれぞれ対応付けた第1対応情報を記憶する記憶部と、
前記第1対応情報と前記画像場所情報とに基づいて、前記複数のグループのうちから対象グループを決定する決定部と、
前記第1表示部〜前記第N表示部の各々を制御する制御部と
を備え、
前記画像場所情報、及び前記複数の場所情報の各々は、住所を示す情報、及び/又は、施設の名称を示す情報を含み、
前記複数のグループの各々は、前記第1表示部〜前記第N表示部のうちの少なくとも1つを含み、
前記制御部は、前記第1表示部〜前記第N表示部のうち、前記対象グループに含まれる表示部である対象表示部に前記表示画像を表示させる、画像処理装置。
An image processing device using an information device including a first display unit to an Nth (N is an integer of 2 or more) display units arranged at different locations.
A reading unit that reads the display image formed on the sheet,
A calculation unit that calculates image location information displayed on the displayed image based on the displayed image,
A storage unit that stores first correspondence information in which a plurality of location information and a plurality of groups are associated with each other.
A determination unit that determines a target group from the plurality of groups based on the first correspondence information and the image location information.
A control unit that controls each of the first display unit to the Nth display unit is provided.
Each of the image location information and the plurality of location information includes information indicating an address and / or information indicating the name of a facility.
Each of the plurality of groups includes at least one of the first display unit to the Nth display unit.
The control unit is an image processing device that displays the display image on a target display unit, which is a display unit included in the target group, among the first display unit to the Nth display unit.
前記記憶部は、前記第1表示部〜前記第N表示部と、第1人数情報〜第N人数情報とをそれぞれ対応付けた第2対応情報をさらに記憶し、
第n(nは1以上N以下の整数)人数情報は、第n表示部を通過した通行人の人数と、時刻との関係を示し、
前記算出部は、前記第2対応情報に基づいて、前記対象表示部に前記表示画像を表示させる時刻又は時間帯である対象時間を算出し、
前記対象時間になると、前記制御部が前記対象表示部に前記表示画像を表示させる、請求項1に記載の画像処理装置。
The storage unit further stores the second correspondence information in which the first display unit to the Nth display unit and the first person information to the Nth person information are associated with each other.
The nth (n is an integer of 1 or more and N or less) number information indicates the relationship between the number of passersby passing through the nth display unit and the time.
Based on the second correspondence information, the calculation unit calculates a target time, which is a time or time zone for displaying the display image on the target display unit.
The image processing apparatus according to claim 1, wherein the control unit causes the target display unit to display the display image at the target time.
前記情報装置は、第1撮像部〜第N撮像部をさらに含み、
第n(nは1以上N以下の整数)撮像部は、第n表示部の周辺を撮像する、請求項1又は請求項2に記載の画像処理装置。
The information device further includes a first imaging unit to an Nth imaging unit.
The image processing apparatus according to claim 1 or 2, wherein the nth (n is an integer of 1 or more and N or less) imaging unit images the periphery of the nth display unit.
前記制御部は、前記第1撮像部〜前記第N撮像部の各々により撮像された通行人の画像に基づいて前記第1対応情報を更新する、請求項3に記載の画像処理装置。 The image processing device according to claim 3, wherein the control unit updates the first correspondence information based on an image of a passerby imaged by each of the first imaging unit to the Nth imaging unit. 前記情報装置は、第1撮像部〜第N撮像部をさらに含み、
第n(nは1以上N以下の整数)撮像部は、第n表示部の周辺を撮像し、
前記制御部は、前記第1撮像部〜前記第N撮像部の各々により撮像された通行人の画像に基づいて前記第2対応情報を更新する、請求項2に記載の画像処理装置。
The information device further includes a first imaging unit to an Nth imaging unit.
The nth (n is an integer of 1 or more and N or less) imaging unit images the periphery of the nth display unit.
The image processing device according to claim 2, wherein the control unit updates the second correspondence information based on an image of a passerby imaged by each of the first imaging unit to the Nth imaging unit.
前記算出部は、前記表示画像に基づいて、前記表示画像に表示された画像イベント情報を算出し、
前記記憶部は、第1イベント情報〜第P(Pは2以上の整数)イベント情報と、第1イベント属性〜第Pイベント属性とをそれぞれ対応付けた第3対応情報をさらに記憶し、
第p(pは1以上P以下の整数)イベント属性は、第pイベント情報に適合する人物の属性を示し、
前記制御部は、
前記画像イベント情報、及び前記第3対応情報に基づいて、前記画像イベント情報に適合する人物の属性である適合属性を算出し、
前記第n撮像部が撮像している通行人である被撮像人の画像に基づいて、前記被撮像人の属性を算出し、
前記被撮像人が前記適合属性を有しない場合、前記第n表示部が前記被撮像人を撮像している間は、前記対象表示部に前記表示画像を表示させない、請求項3に記載の画像処理装置。
The calculation unit calculates the image event information displayed on the display image based on the display image, and calculates the image event information.
The storage unit further stores the third correspondence information in which the first event information to the P (P is an integer of 2 or more) event information and the first event attribute to the P event attribute are associated with each other.
The p-th (p is an integer of 1 or more and P or less) event attribute indicates the attribute of the person who matches the p-event information.
The control unit
Based on the image event information and the third correspondence information, a conformity attribute which is an attribute of a person who conforms to the image event information is calculated.
The attributes of the imaged person are calculated based on the image of the imaged person who is a passerby imaged by the nth imaging unit.
The image according to claim 3, wherein when the imaged person does not have the conforming attribute, the display image is not displayed on the target display unit while the nth display unit is imaging the imaged person. Processing equipment.
前記対象表示部は、画像を表示可能な表示可能領域を有し、
前記制御部は、前記表示可能領域のサイズに合わせたサイズを有する前記表示画像を、前記表示可能領域に表示させる、請求項1から請求項6のいずれか1項に記載の画像処理装置。
The target display unit has a displayable area on which an image can be displayed.
The image processing device according to any one of claims 1 to 6, wherein the control unit displays the display image having a size matching the size of the displayable area in the displayable area.
前記制御部は、前記第1撮像部〜前記第N撮像部の各々が撮像した通行人の画像に基づいて、前記通行人の属性を算出し、
前記記憶部は、第1表示画像〜第Q(Qは2以上の整数)表示画像と、第1画像属性〜第Q画像属性とをそれぞれ対応付けた第4対応情報をさらに記憶し、
第q(qは1以上Q以下の整数)画像属性は、第q表示画像に適合する人物の属性を示し、
前記制御部は、
前記第n撮像部が通行人を撮像すると、前記第n撮像部が撮像している通行人である被撮像人の属性を算出し、
前記第4対応情報に基づいて、前記第1表示画像〜前記第Q表示画像のうちから、前記被撮像人の属性に適合する前記表示画像である適合画像を算出し、
前記第n撮像部が前記被撮像人を撮像している間、前記第n表示部に前記適合画像を表示させる、請求項3に記載の画像処理装置。
The control unit calculates the attributes of the passerby based on the images of the passerby imaged by each of the first imaging unit to the Nth imaging unit.
The storage unit further stores the fourth correspondence information in which the first display image to the Qth (Q is an integer of 2 or more) display image and the first image attribute to the Qth image attribute are associated with each other.
The qth (q is an integer of 1 or more and Q or less) image attribute indicates the attribute of a person who matches the qth display image.
The control unit
When the nth imaging unit images a passerby, the attributes of the imaged person who is the passerby imaged by the nth imaging unit are calculated.
Based on the fourth correspondence information, from the first display image to the Qth display image, a conforming image which is the display image conforming to the attribute of the imaged person is calculated.
The image processing apparatus according to claim 3, wherein the conforming image is displayed on the n-th display unit while the n-th imaging unit is imaging the person to be imaged.
請求項1から請求項8のいずれか1項に記載の画像処理装置と、
前記情報装置と
を備える、画像表示システム。
The image processing apparatus according to any one of claims 1 to 8.
An image display system including the information device.
JP2017252145A 2017-12-27 2017-12-27 Image processing device and image display system Active JP6769429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017252145A JP6769429B2 (en) 2017-12-27 2017-12-27 Image processing device and image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017252145A JP6769429B2 (en) 2017-12-27 2017-12-27 Image processing device and image display system

Publications (2)

Publication Number Publication Date
JP2019117572A JP2019117572A (en) 2019-07-18
JP6769429B2 true JP6769429B2 (en) 2020-10-14

Family

ID=67304505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017252145A Active JP6769429B2 (en) 2017-12-27 2017-12-27 Image processing device and image display system

Country Status (1)

Country Link
JP (1) JP6769429B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4591247B2 (en) * 2005-07-15 2010-12-01 株式会社日立製作所 Information display method
JP5560704B2 (en) * 2009-12-25 2014-07-30 日本電気株式会社 Display schedule setting device, content display system, schedule setting method, and program
JP2011247914A (en) * 2010-05-21 2011-12-08 Ntt Docomo Inc Advertisement distribution system and advertisement distribution method
JP2016004489A (en) * 2014-06-18 2016-01-12 株式会社リコー Information processing device, server device, information processing system, information processing method, and program
JP2016021102A (en) * 2014-07-14 2016-02-04 株式会社リコー Advertisement system and advertisement method
JP6476895B2 (en) * 2015-01-21 2019-03-06 富士ゼロックス株式会社 Content management program and information processing apparatus

Also Published As

Publication number Publication date
JP2019117572A (en) 2019-07-18

Similar Documents

Publication Publication Date Title
JP4038232B1 (en) Customer information processing system and method
WO2010053191A1 (en) Electronic advertisement system, electronic advertisement distribution apparatus, electronic advertisement distribution method, and recording medium
US11328588B2 (en) Method for managing vehicle parking within a parking structure
EP1148702A2 (en) Digital photograph system
JP5002441B2 (en) Marketing data analysis method, marketing data analysis system, data analysis server device, and program
JP2015226634A (en) Game device and game system
JP2007018218A (en) Advertising effect evaluation supporting method and device
CN109886735A (en) A kind of method and device of advertisement pushing
CN102483763B (en) Information classification device, information classification method and program for same
JP6769429B2 (en) Image processing device and image display system
CN111422199A (en) Driving support device, vehicle, information providing device, driving support system, and driving support method
CN110942718A (en) Information system, information processing method, and non-transitory storage medium
KR101854859B1 (en) Toll collection system for toll road and method of performing thereof
JP2005346067A (en) Image output method, image output device and image output program
KR20130049686A (en) Profit creation method, system and computer-readable recording medium using private shops
JP2009193352A (en) Odds display device, odds display method, and odds display program
JP2009020643A (en) Information output network system
JP6127492B2 (en) Donation reception server, donation reception system, donation reception method, program and recording medium
US11562602B2 (en) Data processing apparatus and data collecting system
US20220108230A1 (en) Apparatus for providing of architecture video
JP2019061445A (en) Image providing system
JP2011134228A (en) Display schedule setting device, contents display system, schedule setting method, and program
EP3852043A1 (en) Advertisement presentation system and advertisement presenting method
JP4803427B2 (en) Photo printing system
JP2022006501A (en) Advertisement display system and advertisement display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200907

R150 Certificate of patent or registration of utility model

Ref document number: 6769429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150