JP6769429B2 - Image processing device and image display system - Google Patents
Image processing device and image display system Download PDFInfo
- Publication number
- JP6769429B2 JP6769429B2 JP2017252145A JP2017252145A JP6769429B2 JP 6769429 B2 JP6769429 B2 JP 6769429B2 JP 2017252145 A JP2017252145 A JP 2017252145A JP 2017252145 A JP2017252145 A JP 2017252145A JP 6769429 B2 JP6769429 B2 JP 6769429B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- display
- nth
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、及び画像表示システムに関する。 The present invention relates to an image processing device and an image display system.
特許文献1に記載の広告表示管理システムは、ユーザー端末と、統括司令所と、複数の広告グループとを備える。広告ユーザーは、ユーザー端末を介して統括司令所に対し、広告データを入力する。また、広告ユーザーは、ユーザー端末を介して広告グループを選択し、広告を表示する時間帯を選択する。
The advertisement display management system described in
しかし、広告ユーザーは複数の広告グループ(表示部)のうちから広告(表示画像)を表示させる広告グループを決定しなければならず、煩雑な作業を要する。また、広告ユーザーの選択したグループが広告を表示するのに適した場所に位置しているか否か不明なことがある。この場合、広告ユーザーは、例えば、グループの位置する場所まで行って、グループが適した場所に位置しているか否かを確認する。その結果、広告を表示させる広告グループを決定するのに煩雑な作業を要する。 However, the advertisement user must determine the advertisement group to display the advertisement (display image) from the plurality of advertisement groups (display unit), which requires complicated work. It may also be unclear whether the group selected by the advertising user is located in a suitable location to display the advertisement. In this case, the advertising user goes to, for example, the location of the group to see if the group is located in a suitable location. As a result, it takes a complicated work to determine the ad group to display the ad.
本発明は、複数の表示部のうち表示画像を表示させる表示部を決定する作業を容易に行うことができる画像処理装置、及び画像表示システムを提供する。 The present invention provides an image processing device and an image display system capable of easily determining a display unit for displaying a display image among a plurality of display units.
本発明の一局面によれば、画像処理装置は、互いに異なる場所に配置される第1表示部〜第N(Nは2以上の整数)表示部を含む情報装置を用いる。画像処理装置は、読取部と、算出部と、記憶部と、決定部と、制御部とを備える。読取部は、シートに形成された表示画像を読み取る。算出部は、前記表示画像に基づいて、前記表示画像に表示された画像場所情報を算出する。記憶部は、複数の場所情報と、複数のグループとをそれぞれ対応付けた第1対応情報を記憶する。決定部は、前記第1対応情報と前記画像場所情報とに基づいて、複数の前記グループのうちの少なくとも1つを示す対象グループを決定する。制御部は、前記第1表示部〜前記第N表示部の各々を制御する。前記場所情報は、住所を示す情報、及び/又は、施設の名称を示す情報を含む。前記複数のグループの各々は、前記第1表示部〜前記第N表示部のうちの少なくとも1つを含む。前記制御部は、前記第1表示部〜前記第N表示部のうち、前記対象グループに含まれる表示部である対象表示部に前記表示画像を表示させる。 According to one aspect of the present invention, the image processing device uses an information device including a first display unit to an Nth (N is an integer of 2 or more) display units arranged at different locations. The image processing device includes a reading unit, a calculation unit, a storage unit, a determination unit, and a control unit. The reading unit reads the display image formed on the sheet. The calculation unit calculates the image location information displayed on the displayed image based on the displayed image. The storage unit stores the first correspondence information in which the plurality of location information and the plurality of groups are associated with each other. The determination unit determines a target group indicating at least one of the plurality of the groups based on the first correspondence information and the image location information. The control unit controls each of the first display unit to the Nth display unit. The location information includes information indicating an address and / or information indicating the name of a facility. Each of the plurality of groups includes at least one of the first display unit to the Nth display unit. The control unit causes the display image to be displayed on the target display unit, which is a display unit included in the target group, among the first display unit to the Nth display unit.
本発明の他の一局面によれば、画像形成システムは、上記画像処理装置と、上記情報装置とを備える。 According to another aspect of the present invention, the image forming system includes the image processing device and the information device.
本発明によれば、複数の表示部のうち表示画像を表示させる表示部を決定する作業を容易に行うことができる。 According to the present invention, it is possible to easily determine a display unit for displaying a display image among a plurality of display units.
本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。 An embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are designated by the same reference numerals and the description is not repeated.
[第1実施形態]
図1を参照して、本発明の第1実施形態に係る画像表示システムXについて説明する。図1は、画像表示システムXのブロック図である。
[First Embodiment]
The image display system X according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram of the image display system X.
図1に示すように、画像表示システムXは、例えば、デジタルサイネージとして機能する。画像表示システムXは、画像処理装置100と、情報装置200とを備える。
As shown in FIG. 1, the image display system X functions as, for example, digital signage. The image display system X includes an
画像処理装置100は、例えば、コンビニエンスストアのような商業施設に配置される。画像処理装置100は、読取部10、入力部20、記憶部30、通信部40、及び制御装置50を有する。
The
読取部10は、シートTに形成された表示画像Gを走査して、シートTに形成された表示画像Gを読み取る。その結果、読取部10は、表示画像Gを示す画像データを取得する。
The
読取部10は、例えば、LED(Light Emitting Diode)のような発光部と、イメージセンサーのような撮像部とを含む。読取部10は、発光部、及び撮像部を用いて、シートTに形成された表示画像Gを走査する。
The
入力部20は、画像処理装置100に対する指示を受け付ける。入力部20は、タッチパネル及び複数の操作キーを含む。
The
記憶部30は、記憶装置を含む。記憶装置は、ROM(Read Only Memory)、及びRAM(Random Access Memory)のような主記憶装置(例えば、半導体メモリー)を含み、補助記憶装置(例えば、ハードディスクドライブ、及び不揮発性メモリー)をさらに含んでもよい。主記憶装置及び/又は補助記憶装置は、制御装置50によって実行される種々のコンピュータープログラムを記憶する。
The
通信部40は、制御装置50と情報装置200との間で情報の送受信を行う。通信部40は、例えば、同じ通信方式(プロトコル)を利用する通信機が搭載された電子機器との間で通信が可能である。第1実施形態において、通信部40は、LAN(Local Area Network)などのネットワーク網Nを介して情報装置200と通信する。通信部40は、例えば、LANボードのような通信モジュール(通信機器)である。
The
制御装置50は、CPU(Central Processing Unit)及びMPU(Micro Processing Unit)のようなプロセッサーを含む。制御装置50は、画像処理装置100の各要素を制御する。具体的には、制御装置50のプロセッサーは、記憶装置に記憶されたコンピュータープログラムを実行することにより、読取部10と、入力部20と、記憶部30と、通信部40とを制御する。また、制御装置50は、通信部40を介して情報装置200を制御する。
The
制御装置50は、算出部51と、決定部52と、制御部53とを有する。具体的には、制御装置50のプロセッサーが、記憶装置に記憶されたコンピュータープログラムを実行することにより、算出部51、決定部52、及び制御部53として機能する。
The
情報装置200は、複数の表示部αと、複数の撮像部βとを含む。
The
複数の表示部αの各々は、例えば、LCD(Liquid Crystal Display)、ELD(Electro Luminescence Display)、又は映像プロジェクタのようなディスプレーである。 Each of the plurality of display units α is, for example, a display such as an LCD (Liquid Crystal Display), an ELD (Electro Luminescence Display), or a video projector.
複数の表示部αの各々は、互いに異なる場所に配置される。複数の表示部αの各々は、例えば、通行人が視認可能な場所に配置される。複数の表示部αの各々は、例えば、住宅街、繁華街、駅、商業施設、及び/又は、公共施設に配置される。複数の表示部αの各々は、ネットワーク網Nを介して制御装置50により制御される。
Each of the plurality of display units α is arranged at a different location from each other. Each of the plurality of display units α is arranged, for example, in a place where a passerby can see. Each of the plurality of display units α is arranged in, for example, a residential area, a downtown area, a station, a commercial facility, and / or a public facility. Each of the plurality of display units α is controlled by the
複数の表示部αは、第1表示部α1〜第N表示部αNを含む。Nは、2以上の整数である。複数の表示部αの各々は、画像を表示可能な表示可能領域を有する。第1表示部α1〜第N表示部αNは、それぞれ、第1表示可能領域〜第N表示可能領域を有する。第n表示可能領域は、第n表示部αnの表示可能領域を示す。nは、1以上N以下の整数である。 The plurality of display units α include the first display unit α1 to the Nth display unit αN. N is an integer of 2 or more. Each of the plurality of display units α has a displayable area on which an image can be displayed. The first display unit α1 to the Nth display unit αN each have a first displayable area to an Nth displayable area. The nth displayable area indicates a displayable area of the nth display unit αn. n is an integer of 1 or more and N or less.
複数の撮像部βの各々は、例えば、レンズとイメージセンサーとを有する。レンズは、撮像部βの外部から入射する光を集光し、イメージセンサーの撮像面に結像させる。イメージセンサーは、例えば、CCD(Charged Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)のような固定撮像素子で構成される。イメージセンサーは、撮像面に結像した光学像を電気信号に変換して、画像データを生成する。複数の撮像部βの各々が生成した画像データは、ネットワーク網Nを介して制御装置50に送信される。
Each of the plurality of imaging units β has, for example, a lens and an image sensor. The lens collects light incident from the outside of the imaging unit β and forms an image on the imaging surface of the image sensor. The image sensor is composed of a fixed image sensor such as a CCD (Charged Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), for example. The image sensor converts an optical image formed on an imaging surface into an electric signal to generate image data. The image data generated by each of the plurality of imaging units β is transmitted to the
複数の撮像部βは、第1撮像部β1〜第N撮像部βNを含む。複数の撮像部βは、それぞれ、複数の表示部αの周辺を撮像する。具体的には、第n撮像部βnは、第n表示部αnの近傍に配置される。第n撮像部βnは、第n表示部αnの周辺を撮像する。 The plurality of imaging units β include a first imaging unit β1 to an Nth imaging unit βN. Each of the plurality of imaging units β images the periphery of the plurality of display units α. Specifically, the nth imaging unit βn is arranged in the vicinity of the nth display unit αn. The nth imaging unit βn images the periphery of the nth display unit αn.
記憶部30は、サイズ情報31と、第1対応情報32とを記憶する。
The
サイズ情報31は、複数の表示部αの各々の表示可能領域を示す情報である。なお、第n表示部αnの表示可能領域を、第n表示可能領域と記載する。
The
次に、図2を参照して、シートSに形成される表示画像Gについて説明する。図2は、表示画像Gの一例を示す図である。 Next, the display image G formed on the sheet S will be described with reference to FIG. FIG. 2 is a diagram showing an example of the display image G.
図2に示すように、表示画像Gは、画像イベント情報G1と、画像場所情報G2と、画像日時情報G3とを含む。 As shown in FIG. 2, the display image G includes image event information G1, image location information G2, and image date / time information G3.
画像イベント情報G1は、イベント情報を含む。イベント情報は、例えば、「運動会」、「フリーマーケット」、及び「××展示会」のようなイベントの内容を示す情報である。画像イベント情報G1は、例えば、文字で表される。 The image event information G1 includes event information. The event information is information indicating the contents of an event such as "athletic meet", "flea market", and "XX exhibition". The image event information G1 is represented by characters, for example.
画像場所情報G2は、場所情報Lを含む。場所情報Lは、例えば、住所を示す情報、及び/又は、「〇×小学校」のような施設の名称を示す情報である。画像場所情報G2は、例えば、文字で表される。 The image location information G2 includes the location information L. The place information L is, for example, information indicating an address and / or information indicating the name of a facility such as "○ × elementary school". The image location information G2 is represented by characters, for example.
画像日時情報G3は、日時情報を含む。日時情報は、例えば、「2000年10月10日午前10時」のような日時を示す情報である。画像日時情報G3は、例えば、文字で表される。 The image date / time information G3 includes date / time information. The date and time information is information indicating the date and time, for example, "10 am on October 10, 2000". The image date / time information G3 is represented by characters, for example.
次に、図3を参照して、第1対応情報32について説明する。図3は、第1対応情報32を示す図である。
Next, the
図3に示すように、第1対応情報32は、複数の場所情報Lと、複数のグループMとをそれぞれ対応付けた情報である。複数のグループMの各々は、複数の表示部αのうちの少なくとも1つを示す。
As shown in FIG. 3, the
複数の場所情報Lは、第1場所情報L1〜第R場所情報LRで構成される。Rは、2以上の整数である。複数のグループMは、第1グループM1〜第RグループMRで構成される。第1対応情報32では、第1場所情報L1〜第R場所情報LRと、第1グループM1〜第RグループMRとがそれぞれ対応付けられる。
The plurality of location information L is composed of the first location information L1 to the R location information LR. R is an integer of 2 or more. The plurality of groups M are composed of the first group M1 to the R group MR. In the
第1対応情報32では、第r場所情報Lrと、第rグループMrとが対応付けられる。rは、1以上、R以下の整数を示す。第1実施形態では、第1場所情報L1は、「〇×小学校」である。第1グループM1は、第1表示部α1〜第2表示部α2を含む。従って、第1実施形態では、「〇×小学校」と、第1表示部α1〜第2表示部α2とが対応付けられる。
In the
第rグループMrに含まれる表示部αは、第r場所情報Lrが示す場所である第r場所に対して所定の位置に配置される。所定の位置は、例えば、第r場所の周辺、第r場所から所定の距離だけ離間した位置、及び/又は、第r場所に向かう経路に沿った位置を示す。所定の距離だけ離間した位置は、例えば、第r場所が示す場所に向かって徒歩又は交通機関により移動した場合に、所定時間内に第r場所に到達できる位置を示す。所定の距離は、例えば、画像イベント情報G1の内容を考慮して、適宜決定される。 The display unit α included in the r-th group Mr is arranged at a predetermined position with respect to the r-place which is the place indicated by the r-place information Lr. The predetermined position indicates, for example, a position around the r-place, a position separated from the r-place by a predetermined distance, and / or a position along a path toward the r-place. The position separated by a predetermined distance indicates, for example, a position where the r-place can be reached within a predetermined time when moving toward the place indicated by the r-place by walking or transportation. The predetermined distance is appropriately determined in consideration of, for example, the content of the image event information G1.
次に、図4及び図5を参照して、制御装置50の第1の動作について説明する。図4は、制御装置50の第1の動作を示す第1フロー図である。図5は、制御装置50の第1の動作を示す第2フロー図である。
Next, the first operation of the
図4に示すように、ステップS10において、入力部20は、デジタルサイネージを実行することを示すジョブの入力を受け付ける。
As shown in FIG. 4, in step S10, the
ステップS20において、読取部10は、シートSに形成された表示画像G(図2参照)を読み取る。
In step S20, the
ステップS30において、算出部51は、表示画像Gに基づいて、画像場所情報G2を算出する。算出部51は、例えば、OCR機能により、既知のフォントを用いて形成された文字を示す画像と、表示画像Gとのパターンマッチングによる照合を行い、表示画像Gに含まれる文字を算出する。その結果、第1実施形態では、算出部51は、OCR機能により、画像イベント情報G1と、画像場所情報G2と、画像日時情報G3とを算出する(図2参照)。なお、第1実施形態では、算出部51により算出された画像場所情報G2は、「〇×小学校」である。
In step S30, the
ステップS40において、決定部52は、第1対応情報32(図3参照)と、算出部51が算出した画像場所情報G2とに基づいて、複数のグループMのうちから対象グループを決定する。決定部52は、第1対応情報32において、複数のグループMのうち、画像場所情報G2と対応するグループMを、対象グループに決定する。第1実施形態では、画像場所情報G2は、「〇×小学校」である。従って、第1実施形態の対象グループは、第1グループM1である(図3参照)。なお、対象グループに含まれる表示部αを、対象表示部と記載する。第1実施形態では、対象表示部は、第1表示部α1、及び第2表示部α2である。
In step S40, the
ステップS50において、入力部20は、対象日を示す情報の入力を受け付ける。対象日は、対象グループに表示画像Gを表示させる日にちを示す。
In step S50, the
ステップS60において、入力部20は、対象時間を示す情報の入力を受け付ける。対象時間は、対象表示部に表示画像Gを表示させる時刻又は時間帯を示す。
In step S60, the
ステップS70において、料金算出部54は、対象表示部に表示画像Gを表示させるために必要な料金を算出する。料金は、例えば、対象表示部の個数、及び対象表示部に表示画像Gが表示される時間の長さに基づいて決定される。例えば、対象表示部の個数が多くなる程、料金が高くなる。さらに、対象表示部に表示画像Gが表示される時間が長くなる程、料金が高くなる。料金は、例えば、コインベンダー、プリペイドカード、電子マネー、又はクレジットカードにより決済される。
In step S70, the
ステップS80において、制御部53は、料金が支払われたか否かを判定する。料金が支払われたと制御部53が判定すると(ステップS80で、Yes)、処理がステップS90に移行する。料金が支払われていないと制御部53が判定すると(ステップS80で、No)、処理が終了する。
In step S80, the
図5に示すように、ステップS90において、制御部53は、対象表示日に対する表示画像Gの表示期間中であるか否かを判定する。制御部53はタイマーの機能を有し、タイマーにより表示画像Gの表示期間中であるか否かを判定する。なお、表示画像Gの表示期間は、ステップS50、及びステップS60で決定された期間を示す。表示画像Gの表示期間中であると制御部53が判定すると(ステップS90で、Yes)、処理がステップS100に移行する。表示画像Gの表示期間中ではないと制御部53が判定すると(ステップS90で、No)、処理がステップS140に移行する。
As shown in FIG. 5, in step S90, the
ステップS100において、制御部53は、サイズ情報31に基づいて、対象表示部の表示可能領域のサイズに合わせて表示画像Gのサイズを調整する。表示画像Gのサイズを調整するとは、表示画像Gを拡大又は縮小することを示す。表示画像Gのサイズを表示可能領域のサイズに合わせるとは、表示画像Gが表示可能領域内に収まる範囲で、表示画像Gのサイズをできるだけ大きくすることを示す。
In step S100, the
ステップS110において、制御部53は、対象表示部に表示画像Gを表示させる。なお、対象表示部に表示される表示画像Gは、ステップS100でサイズを調整されている。従って、対象表示部の表示可能領域のサイズに適したサイズを有する表示画像Gを、対象表示部の表示可能領域に表示させることができる。
In step S110, the
なお、第1実施形態では、第1表示部α1、及び第2表示部α2が対象表示部である(ステップS40参照)。従って、第1実施形態では、制御部53は、第1表示可能領域のサイズに合わせたサイズを有する表示画像Gを、第1表示部α1の第1表示可能領域に表示させる。また、制御部53は、第2表示可能領域のサイズに合わせたサイズを有する表示画像Gを、第2表示部α2の第2表示可能領域に表示させる。
In the first embodiment, the first display unit α1 and the second display unit α2 are the target display units (see step S40). Therefore, in the first embodiment, the
ステップS120において、制御部53は、表示画像Gの表示期間が終了したか否かを判定する。表示画像Gの表示期間が終了したと制御部53が判定すると(ステップS120で、Yes)、処理がステップS130に移行する。表示画像Gの表示期間が終了していないと制御部53が判定すると(ステップS120で、No)、ステップS120に示す処理が繰り返される。その結果、対象表示部に表示画像Gが表示されている状態が保持される。
In step S120, the
ステップS130において、対象表示部から表示画像Gの表示を消すように、制御部53が対象表示部を制御する。従って、対象表示部から表示画像Gの表示が消される。その結果、処理が終了する。なお、第1実施形態では、第1表示部α1、及び第2表示部α2の各々から表示画像Gの表示が消される。
In step S130, the
ステップS140において、制御部53は、表示画像Gの表示期間が終了したか否かを判定する。表示画像Gの表示期間が終了したと制御部53が判定すると(ステップS140で、Yes)、処理が終了する。表示画像Gの表示期間が終了していないと制御部53が判定すると(ステップS140で、No)、処理がステップS90に移行する。
In step S140, the
以上、図4、及び図5を参照して説明したように、ステップS40において、決定部52は、第1対応情報32と画像場所情報G2とに基づいて対象グループを決定する。そして、ステップS110に示すように、制御部53は、対象表示部に表示画像Gを表示させる。従って、画像表示システムXの利用者は、対象グループを決定する必要がない。その結果、対象グループを決定する作業を容易に行うことができる。
As described above with reference to FIGS. 4 and 5, in step S40, the
また、ステップS110に示すように、制御部53は、対象表示部の表示可能領域のサイズに合わせたサイズを有する表示画像Gを、対象表示部の表示可能領域に表示させる。従って、表示可能領域を効率的に使用して、表示可能領域に表示画像Gを表示させることが可能になる。
Further, as shown in step S110, the
次に、図6を参照して、制御装置50の第2の動作について説明する。図6は、制御装置50の第2の動作を示すフロー図である。画像処理装置100及び情報装置200が起動している間、制御装置50が図6に示す処理を実行する。
Next, the second operation of the
図6に示すように、ステップS200において、制御部53は、複数の撮像部βの各々が撮像した画像データを複数の撮像部βの各々から取得する。そして、制御部53は、複数の撮像部βの各々から取得した画像データに対し人物認識処理を実行し、通行人の画像を取得する。その結果、制御部53は、表示部α毎に通行人のデータを取得する。通行人のデータは、例えば、人の通行量を示す。また、制御部53は、通行人の画像に対し顔認識処理を行い、通行人の性別を示すデータ、通行人の年代を示すデータ、及び通行人を特定するための特定データをさらに取得する。
As shown in FIG. 6, in step S200, the
ステップ210において、制御部53は、複数の撮像部βの各々により撮像された通行人の画像に基づいて、第1対応情報32を更新する。
In step 210, the
例えば、制御部53は、表示部α毎に、所定の通行人が通過する人数をカウントする。所定の通行人は、例えば、「〇×小学校」に向かう通行人を示す。そして、制御部53は、複数の表示部αのうち、所定の通行人が通過する表示部αのランキングを算出する。そして、ランキングの1位から数えて所定順位までの表示部αを、制御部53が第1グループM1に決定する(図3参照)。なお、制御部53は、表示部α毎に、所定の通行人をカウントし続け、ランキングを更新し続ける。そして、ランキングに変動がある毎に、複数のグループMの各々に含まれる表示部αを変更する。ステップ210に示す処理が終了すると、処理がステップS200に戻る。
For example, the
なお、制御部53は、例えば、下記(i)〜(iii)に示す手順により、表示部αを通過する通行人が、「〇×小学校」に向かう所定の通行人であるか否かを判定する。(i)制御部53は、通行人の画像に対し顔認識処理を行うことで通行人を特定する。(ii)制御部53は、(i)で特定した通行人の位置を複数の撮像部βの画像に基づいて確認する。(iii)(i)で特定した通行人が「〇×小学校」に配置される撮像部βにより撮像されることで、制御部53は、(i)で特定した通行人が「〇×小学校」に向かう所定の通行人であることを判定する。その結果、表示部α毎に、所定の通行人が通過する人数をカウントすることが可能になる。
The
以上、図6を参照して説明したように、制御部53は、複数の撮像部βの各々により撮像された通行人の画像に基づいて、第1対応情報32を更新する。従って、ステップS40において、決定部52が対象グループを決定する際、最新の通行人の情報を反映させることができる。
As described above with reference to FIG. 6, the
なお、画像表示システムXにおいて対象グループを決定するようなデータの解析処理は、クラウド上のサーバーで行われてもよい。 The data analysis process for determining the target group in the image display system X may be performed on a server on the cloud.
[第2実施形態]
図1、及び図7から図9を参照して、本発明の第2実施形態に係る画像表示システムXについて説明する。
[Second Embodiment]
The image display system X according to the second embodiment of the present invention will be described with reference to FIGS. 1 and 7 to 9.
第2実施形態では、算出部51が対象時間を算出する点で第1実施形態と異なる。以下では、第1実施形態と異なる点を主に説明する。
The second embodiment is different from the first embodiment in that the
図1に示すように、記憶部30は、第2対応情報33をさらに記憶する。
As shown in FIG. 1, the
次に、図7を参照して、第2対応情報33について説明する。図7は、第2対応情報33を示す図である。
Next, the
図7に示すように、第2対応情報33は、第1表示部α1〜第N表示部αNと、第1人数情報Y1〜第N人数情報YNとをそれぞれ対応付けた情報を示す。第n人数情報Ynは、第n表示部αnを通過した通行人の人数と、時刻との関係を示す。第n人数情報Ynにおいて、第n表示部αnを通過した通行人の人数は、単位時刻毎に示される。単位時刻とは、単位時間ごとの時刻を示す。
As shown in FIG. 7, the
第2対応情報33によると、複数の表示部αの各々において、表示部αを通過する通行人の人数が多くなる時間帯が分かる。その結果、表示部αに表示画像Gを表示させたときに、表示画像Gを多くの人目に触れさせることができる時間帯を算出することが可能になる。
According to the
次に、図8を参照して、制御装置50の第3の動作について説明する。図8は、制御装置50の第3の動作を示すフロー図である。制御装置50は、図4のステップS60に示す処理に代えて、ステップS61に示す処理を実行する。
Next, the third operation of the
ステップS61において、算出部51は、第2対応情報33(図7参照)に基づいて、対象表示部に表示画像Gを表示させる時刻又は時間帯である対象時間を算出する。算出部51は、例えば、第2対応情報33において、通行人の人数が所定人数Z人よりも多い時間帯を、対象時間として算出する。
In step S61, the
例えば、対象表示部が、第1表示部α1、及び第2表示部α2の場合、算出部51は、第1表示部α1、及び第2表示部α2の各々の対象時間を算出する。この場合、図7に示すように、第1表示部α1では、時間t1〜時間t2の第1時間帯と、時間t3〜時間t4の第2時間帯とで、通行人の人数が所定人数Z人よりも多くなる。従って、算出部51は、第1時間帯と第2時間帯とを、第1表示部α1の対象時間として算出する。また、第2表示部α2では、時間t5〜時間t6の第3時間帯と、時間t7〜時間t8の第4時間帯とで、通行人の人数が所定人数Z人よりも多くなる。従って、算出部51は、第3時間帯と第4時間帯とを、第2表示部α2の対象時間として算出する。
For example, when the target display unit is the first display unit α1 and the second display unit α2, the
なお、ユーザーは、入力部20を介して、所定人数Z人を変更することができる。
The user can change the predetermined number of Z people via the
以上、図8を参照して説明したように、ステップS61において、算出部51は、第2対応情報33に基づいて対象時間を算出する。従って、画像表示システムXの利用者は、対象時間を決定する必要がない。その結果、対象時間を決定する作業を容易に行うことができる。
As described above with reference to FIG. 8, in step S61, the
次に、図9を参照して、制御装置50の第4の動作について説明する。図9は、制御装置50の第4の動作を示すフロー図である。画像処理装置100及び情報装置200が起動している間、制御装置50が図9に示す処理を実行する。
Next, the fourth operation of the
図9に示すように、ステップS300において、制御部53は、表示部α毎に通行人のデータを取得する。なお、ステップS300に示す処理は、ステップS200に示す処理(図6参照)と同様である。
As shown in FIG. 9, in step S300, the
ステップS310において、制御部53は、複数の撮像部βの各々により撮像された通行人の画像に基づいて、第2対応情報33(図7参照)を更新する。例えば、制御部53は、第n表示部αnを通過する通行人を時刻と対応付けてカウントする。そして、制御部53は、カウントした人数を、第2対応情報33の第n表示部αnの人数情報Yに対し、単位時刻毎に区分して追加する追加処理を行う。そして、制御部53は、図9に示す表示部α毎に追加処理を行うことで、第2対応情報33を更新する。ステップ310に示す処理が終了すると、処理がステップS300に戻る。
In step S310, the
なお、第2実施形態では、第1対応情報32を更新する処理(図6参照)と、第2対応情報33を更新する処理(図9参照)と並行して実行される。なお、第2実施形態では、第1対応情報32を更新する処理、及び第2対応情報33を更新する処理のうちの一方が実行され、他方が実行されなくてもよい。
In the second embodiment, the process of updating the first correspondence information 32 (see FIG. 6) and the process of updating the second correspondence information 33 (see FIG. 9) are executed in parallel. In the second embodiment, one of the process of updating the
以上、図9を参照して説明したように、制御部53は、複数の撮像部βの各々により撮像された通行人の画像に基づいて、第2対応情報33を更新する。従って、ステップS61において、算出部51が対象時間を算出する際、最新の通行人の情報を反映させることができる。
As described above with reference to FIG. 9, the
[第3実施形態]
次に、図1、図4、及び図10から図12を参照して、本発明の第3実施形態に係る画像表示システムXについて説明する。
[Third Embodiment]
Next, the image display system X according to the third embodiment of the present invention will be described with reference to FIGS. 1, 4, and 10 to 12.
第3実施形態では、表示部αを通過する通行人の属性に合わせて、表示部αに表示画像Gを表示するか否かを決定する点が第1実施形態、及び第2実施形態と異なる。以下では、第1実施形態、及び第2実施形態と異なる点を主に説明する。 The third embodiment is different from the first embodiment and the second embodiment in that it is determined whether or not to display the display image G on the display unit α according to the attributes of passersby passing through the display unit α. .. Hereinafter, the differences from the first embodiment and the second embodiment will be mainly described.
図1に示すように、記憶部30は、第3対応情報34をさらに記憶する。
As shown in FIG. 1, the
次に、図10を参照して、第3対応情報34について説明する。図10は、第3対応情報34を示す図である。
Next, the
図10に示すように、第3対応情報34は、第1イベント情報〜第Pイベント情報と、第1イベント属性〜第Pイベント属性とをそれぞれ対応付けた情報を示す。Pは、2以上の整数である。第pイベント属性は、第pイベント情報に適合する人物の属性を示す。pは、1以上P以下の整数である。属性は、例えば、性別、子供、大人、及び/又は、年代を示す。第3実施形態では、第1イベント情報である「イベントF」と、第1イベント属性である「大人」とが対応付けられる。また、第2イベント情報である「イベントH」と、第2イベント属性である「子供」とが対応付けられる。
As shown in FIG. 10, the
次に、図11、及び図12を参照して、制御装置50の第5の動作について説明する。図11は、制御装置50の第5の動作を示す第1フロー図である。図12は、制御装置50の第5の動作を示す第2フロー図である。
Next, the fifth operation of the
なお、第3実施形態では、第n表示部αnは、対象表示部である。 In the third embodiment, the nth display unit αn is a target display unit.
図4、及び図11に示すように、ステップS80に示す処理が終了すると、ステップS81に移行する。 As shown in FIGS. 4 and 11, when the process shown in step S80 is completed, the process proceeds to step S81.
図11に示すように、ステップS81において、算出部51は、表示画像Gに基づいて、画像イベント情報G1を算出する。なお、第3実施形態では、算出部51により算出された画像イベント情報G1は、「イベントF」である。
As shown in FIG. 11, in step S81, the
ステップS82において、制御部53は、画像イベント情報G1、及び第3対応情報34(図10参照)に基づいて、第1適合属性(適合属性)を算出する。制御部53は、第3対応情報34において、画像イベント情報G1と対応するイベント属性を、第1適合属性として算出する。言い換えれば、第1適合属性は、画像イベント情報G1に適合する人物の属性を示す。
In step S82, the
第3実施形態では、画像イベント情報G1は、「イベントF」である。従って、第3実施形態では、制御部53は、第1適合属性として「大人」を算出する。
In the third embodiment, the image event information G1 is "event F". Therefore, in the third embodiment, the
図11、及び図12に示すように、ステップS110に示す処理が終了すると、処理がステップS111に移行する。 As shown in FIGS. 11 and 12, when the process shown in step S110 is completed, the process shifts to step S111.
ステップS111において、制御部53は、第n撮像部から取得した画像データに対し人物認識処理を実行し、第n撮像部が通行人を撮像しているか否かをリアルタイムで判定する。以下では、第n撮像部が撮像している通行人を、被撮像人と記載する。
In step S111, the
被撮像人がいると制御部53が判定すると(ステップS111で、Yes)、処理がステップS112に移行する。被撮像人がいるとは、第n表示部が撮像している画像に通行人が写っていることを示す。これに対し、被撮像人がいないと制御部53が判定すると(ステップS111で、No)、処理がステップS120に移行する。被撮像人がいないとは、第n撮像部βnが撮像している画像に通行人が写っていないことを示す。
When the
ステップS112において、第n撮像部βnが通行人を撮像すると、制御部53は、被撮像人の画像に基づいて、被撮像人の属性を算出する。制御部53は、例えば、被撮像人の画像に対し顔認識処理を行い、被撮像人の属性を算出する。第3実施形態では、制御部53は、被撮像人が「大人」及び「子供」のうちのいずれの属性を有するかを算出する。制御部53は、例えば、被撮像人の画像に対し顔認識処理を行い、被撮像人の年代が所定の年代よりも上であると判定すると、被撮像人の属性が「大人」であると算出する。また、制御部53は、被撮像人の画像に対し顔認識処理を行い、被撮像人の年代が所定の年代以下であると判定すると、被撮像人の属性が「子供」であると算出する。
In step S112, when the nth imaging unit βn images a passerby, the
ステップS113において、制御部53は、被撮像人が第1適合属性を有するか否かを判定する。具体的には、ステップS112で算出された被撮像人の属性が、ステップS82(図11参照)で算出された第1適合属性に含まれるか否かを判定する。被撮像人が第1適合属性を有すると制御部53が判定した場合(ステップS113で、Yes)、処理がステップS120に移行する。被撮像人が第1適合属性を有しないと制御部53が判定した場合(ステップS113で、No)、処理がステップS114に移行する。
In step S113, the
第3実施形態では、第1適合属性が「大人」である。従って、被撮像人の属性が「大人」の場合、被撮像人が第1適合属性を有する。その結果、処理がステップS120に移行する。なお、第3実施形態では、第n撮像部βnの前に「大人」がいると、第n表示部αnから表示画像Gの表示が消えず、表示画像Gの表示された状態が保持される。 In the third embodiment, the first conforming attribute is "adult". Therefore, when the attribute of the imaged person is "adult", the imaged person has the first conformity attribute. As a result, the process proceeds to step S120. In the third embodiment, when an "adult" is present in front of the nth imaging unit βn, the display of the display image G does not disappear from the nth display unit αn, and the displayed state of the display image G is maintained. ..
これに対し、被撮像人の属性が「子供」の場合、被撮像人が第1適合属性を有しない。その結果、処理がステップS114に移行する。 On the other hand, when the attribute of the imaged person is "child", the imaged person does not have the first conformity attribute. As a result, the process proceeds to step S114.
ステップS114において、被撮像人が第1適合属性を有しないと制御部53が判定すると、第n表示部αnが表示画像Gを表示しないように制御部53が第n表示部αnを制御する。その結果、第n表示部αnから表示画像Gの表示が消える。第3実施形態では、第n撮像部βnの前に「子供」がいると、第n表示部αnから表示画像Gの表示が消える。
In step S114, when the
ステップS115において、制御部53は、第1適合属性を有しない被撮像人がいるか否かを判定する。詳細には、制御部53は、第n撮像部βnから取得した画像データに対し人物認識処理を実行し、第1適合属性を有しない被撮像人がいるか否かをリアルタイムで判定する。第3実施形態では、制御部53は、第n撮像部βnの前に「子供」がまだいるか否かを判定する。
In step S115, the
第1適合属性を有しない被撮像人がいると制御部53が判定した場合(ステップS115で、Yes)、ステップ115に示す処理が繰り返される。その結果、第n表示部αnから表示画像Gの表示が消えた状態が保持される。なお、第3実施形態では、「子供」が第n撮像部βnの前にまだいる場合、第n表示部αnから表示画像Gの表示が消えた状態が保持される。
When the
これに対し、第1適合属性を有しない被撮像人がいないと制御部53が判定した場合(ステップS115で、No)、処理がステップS116に移行する。
On the other hand, when the
ステップS116において、第n表示部αnが表示画像Gを表示するように制御部53が第n表示部αnを制御する。その結果、第n表示部αnに表示画像Gが表示される。なお、第3実施形態では、「子供」が第n撮像部βnの前からいなくなると、第n表示部αnに表示画像Gが表示される。ステップS116に示す処理が終了すると、処理がステップS120に移行する。
In step S116, the
ステップS120において、制御部53は、表示画像Gの表示期間が終了したか否かを判定する。表示画像Gの表示期間が終了したと制御部53が判定すると(ステップS120で、Yes)、処理がステップS130に移行する。表示画像Gの表示期間が終了していないと制御部53が判定すると(ステップS120で、No)、処理がステップS111に移行する。
In step S120, the
以上、図11、及び図12を参照して説明したように、ステップS113及びステップS114において、被撮像人が第1適合属性を有しない場合、第n表示部αnが表示画像Gを表示しないように制御部53が第n表示部αnを制御する。従って、表示画像Gの表示期間中に、被撮像人の属性に合わせて、表示画像Gを第n表示部αnに表示させている状態と、表示画像Gを第n表示部αnに表示させていない状態とを切り替えることが可能になる。
As described above with reference to FIGS. 11 and 12, in step S113 and step S114, when the image subject does not have the first conformity attribute, the nth display unit αn does not display the display image G. The
[第4実施形態]
図1、図13、及び図14を参照して、本発明の第4実施形態に係る画像表示システムXについて説明する。
[Fourth Embodiment]
The image display system X according to the fourth embodiment of the present invention will be described with reference to FIGS. 1, 13, and 14.
第4実施形態では、被撮像人の属性に合わせて第n表示部αnに表示される表示画像Gが変更される点が第1実施形態〜第3実施形態と異なる。以下では、第1実施形態〜第3実施形態と異なる点を主に説明する。 The fourth embodiment is different from the first to third embodiments in that the display image G displayed on the nth display unit αn is changed according to the attributes of the person to be imaged. Hereinafter, the differences from the first to third embodiments will be mainly described.
図1に示すように、記憶部30は、第4対応情報35をさらに記憶する。
As shown in FIG. 1, the
次に、図13を参照して、第4対応情報35について説明する。図13は、第4対応情報35を示す図である。
Next, the
図13に示すように、第4対応情報35は、第1表示画像J1〜第Q表示画像JQと、第1画像属性K1〜第Q画像属性KQとをそれぞれ対応付けた情報を示す。Qは、2以上の整数を示す。第q画像属性Kqは、第q表示画像Jqに適合する人物の属性を示す。qは、1以上、Q以下の整数である。第4実施形態では、第1表示画像J1には、第1画像属性K1である「大人」が対応付けられる。第2表示画像J2には、第2画像属性K2である「子供」が対応付けられる。
As shown in FIG. 13, the
次に、図14を参照して、制御装置50の第6の動作について説明する。図14は、制御装置50の第6の動作を示すフロー図である。
Next, the sixth operation of the
図14に示すように、ステップS400において、制御部53は、第n撮像部βnから取得した画像データに対し人物認識処理を実行し、第n撮像部βnが通行人を撮像しているか否かをリアルタイムで判定する。被撮像人がいると制御部53が判定すると(ステップS400で、Yes)、処理がステップS410に移行する。被撮像人がいないと制御部53が判定すると(ステップS400で、No)、ステップS400に示す処理が繰り返される。
As shown in FIG. 14, in step S400, the
ステップS410において、第n撮像部βnが通行人を撮像すると、制御部53は、被撮像人の画像に基づいて、被撮像人の属性を算出する。第4実施形態では、制御部53は、被撮像人が「大人」及び「子供」のうちのいずれの属性を有するかを算出する。
In step S410, when the nth imaging unit βn images a passerby, the
ステップS420において、制御部53は、第4対応情報35と、被撮像人の属性とに基づいて、適合画像を算出する。制御部53は、第4対応情報35において、被撮像人の属性を含む画像属性Kに対応する表示画像Gを、適合画像として算出する。言い換えれば、適合画像は、複数の表示画像Gのうち被撮像人の属性に適合する表示画像Gを示す。
In step S420, the
第4実施形態では、被撮像人が「大人」の場合、適合画像は第1表示画像J1である。これに対し、被撮像人が「子供」の場合、適合画像は第2表示画像J2である。 In the fourth embodiment, when the person to be imaged is an "adult", the conforming image is the first display image J1. On the other hand, when the person to be imaged is a "child", the conforming image is the second display image J2.
ステップS430において、第n表示部αnが適合画像を表示するように、制御部53が第n表示部αnを制御する。その結果、第n表示部αnには、適合画像が表示される。なお、第4実施形態では、被撮像人が「大人」の場合、第n表示部αnには第1表示画像J1が表示される。これに対し、被撮像人が「子供」の場合、第n表示部αnには第2表示画像J2が表示される。
In step S430, the
ステップS440において、制御部53は、第2適合属性を有する被撮像人がいるか否かを判定する。詳細には、制御部53は、第n撮像部βnから取得した画像データに対し人物認識処理を実行し、第2適合属性を有する被撮像人がいるか否かをリアルタイムで判定する。第2適合属性は、第4対応情報35において、適合画像に対応する人物の属性を示す。
In step S440, the
第2適合属性を有する被撮像人がいると制御部53が判定した場合(ステップS440で、Yes)、ステップS440に示す処理が繰り返される。その結果、第n表示部αnに適合画像が表示されている状態が保持される。第4実施形態では、第n撮像部βnが撮像している画像に「大人」が写っていると、第n表示部αnに第1表示画像J1が表示され続ける。これに対し、第n撮像部βnが撮像している画像に「子供」が写っていると、第n表示部αnに第2表示画像J2が表示され続ける。
When the
第2適合属性を有する被撮像人がいないと制御部53が判定した場合(ステップS440で、No)、処理がステップS450に移行する。
When the
ステップS450において、対象表示部から表示画像Gの表示を消すように、制御部53が第n表示部αnを制御する。その結果、第n表示部αnから表示画像Gの表示が消される。なお、第4実施形態では、「大人」が第n表示部αnを通過し、第n撮像部βnに映らなくなると、第n表示部αnから第1表示画像J1の表示が消される。これに対し、「子供」が第n表示部αnを通過し、第n撮像部βnに映らなくなると、第n表示部αnから第2表示画像J2の表示が消される。
In step S450, the
ステップS450に示す処理が終了すると、処理がステップS400に戻る。 When the process shown in step S450 is completed, the process returns to step S400.
以上、図14を参照して説明したように、ステップS440において、第2適合属性を有する被撮像人がいる間、第n表示部αnが適合画像を表示するように、制御部53が第n表示部αnを制御する。従って、第n表示部αnに対し、被撮像人の属性に合わせた表示画像Gを表示させることが可能になる。
As described above with reference to FIG. 14, in step S440, the
[第5実施形態]
図15を参照して、画像形成装置300について説明する。図15は、画像形成装置300を示す模式的断面図である。
[Fifth Embodiment]
The
画像形成装置300は、搬送部1と、入力部2と、読取部3と、カセット4と、給送ローラー5aと、搬送ローラー5bと、排出ローラー5cと、画像形成部6と、記憶装置7と、制御装置9とを備える。
The
搬送部1は、読み取り対象の画像を有するシートを、読取部3に向けて搬送する。読取部3は、シートを走査して、画像データを取得する。入力部2は、画像形成装置300に対するユーザーからの指示を受け付ける。表示部2aは、タッチパネルとして機能する。この場合、入力部2は、タッチパネルを含む。
The
カセット4は、シートTを収容する。給送ローラー5aは、カセット4内のシートTを送出する。搬送ローラー5bは、給送ローラー5aから搬送されたシートTを、画像形成部6に向けて送出する。
The cassette 4 houses the sheet T. The feeding
画像形成部6は、シートTに画像を形成する。画像は、具体的には、トナー画像を示す。画像形成部6は、感光体ドラムと、帯電部と、露光部と、現像部と、転写部と、クリーニング部と、除電部とを含む。感光体ドラム、帯電部、露光部、現像部、及び転写部によって、シートTに画像が形成される。クリーニング部は、感光体ドラムの表面に残留しているトナーを除去する。除電部は、感光体ドラムの表面の残留電荷を除去する。画像形成部6は、シートTに画像を形成した後、シートTを定着部に向けて送出する。定着部は、画像を加熱及び加圧してシートTに定着させる。なお、画像形成部6は、ノズルを有し、ノズルからインクを吐出して、シートTに画像を形成してもよい。 The image forming unit 6 forms an image on the sheet T. The image specifically shows a toner image. The image forming unit 6 includes a photoconductor drum, a charging unit, an exposure unit, a developing unit, a transfer unit, a cleaning unit, and a static elimination unit. An image is formed on the sheet T by the photoconductor drum, the charging unit, the exposure unit, the developing unit, and the transfer unit. The cleaning unit removes the toner remaining on the surface of the photoconductor drum. The static eliminator removes residual charges on the surface of the photoconductor drum. After forming an image on the sheet T, the image forming unit 6 sends the sheet T toward the fixing unit. The fixing portion heats and pressurizes the image to fix it on the sheet T. The image forming unit 6 may have a nozzle and eject ink from the nozzle to form an image on the sheet T.
排出ローラー5cは、画像形成部6を通過したシートTを、画像形成装置300の筐体の外部へ排出する。
The
記憶装置7は、制御装置9によって実行される種々のコンピュータープログラムを記憶する。
The
通信装置8は、LAN(Local Area Network)などのネットワーク網Nを介して情報装置200と通信する。
The
制御装置9は、搬送部1と、入力部2と、読取部3と、カセット4と、給送ローラー5aと、搬送ローラー5bと、画像形成部6と、排出ローラー5cと、記憶装置7と、通信装置8とを制御する。
The control device 9 includes a
画像形成装置300は、画像処理装置100として機能する。詳細には、画像形成装置300の読取部3は、画像処理装置100の読取部10として機能する。画像形成装置300の入力部2は、画像処理装置100の入力部20として機能する。画像形成装置300の記憶装置7は、画像処理装置100の記憶部30として機能する。画像形成装置300の通信装置8は、画像処理装置100の通信部40として機能する。画像形成装置300の制御装置9は、画像処理装置100の制御装置50として機能する。その結果、画像形成装置300を画像処理装置100として利用することが可能になる。また、店舗に配置されている画像形成装置300を利用して、画像表示システムXを構成することが可能になる。
The
以上、図面(図1〜図15)を参照しながら本発明の実施形態について説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である(例えば、(1)〜(6))。また、上記の実施形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明の形成が可能である。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の個数等は、図面作成の都合から実際とは異なる場合もある。また、上記の実施形態で示す各構成要素は一例であって、特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能である。 The embodiments of the present invention have been described above with reference to the drawings (FIGS. 1 to 15). However, the present invention is not limited to the above-described embodiment, and can be implemented in various embodiments without departing from the gist thereof (for example, (1) to (6)). In addition, various inventions can be formed by appropriately combining a plurality of the constituent elements disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. The drawings are schematically shown mainly for each component for easy understanding, and the number of each component shown may differ from the actual one due to the convenience of drawing. Further, each component shown in the above embodiment is an example, and is not particularly limited, and various modifications can be made without substantially deviating from the effect of the present invention.
(1)第3実施形態のステップS111〜ステップS114において、第n撮像部βnが第1適合属性を有しない被撮像人を撮像すると、第n表示部αnから表示画像Gの表示が消える。しかし、第n撮像部βnが第1適合属性を有しない被撮像人と第1適合属性を有する被撮像人とを同時に撮像した場合、第n表示部αnから表示画像Gの表示が消えず、表示画像Gの表示が保持されてもよい。例えば、第1適合属性が「大人」であった場合、「子供」のみが第n表示部αnの位置する場所を通ると第n表示部αnから表示画像Gの表示が消えるが、「子供」に「大人」が同伴していると第n表示部αnから表示画像Gの表示が消えなくてもよい。 (1) In steps S111 to S114 of the third embodiment, when the n-th imaging unit βn images an imaged person who does not have the first conformity attribute, the display of the display image G disappears from the n-th display unit αn. However, when the nth imaging unit βn simultaneously images an imaged person who does not have the first conforming attribute and an imaged person who has the first conforming attribute, the display of the display image G does not disappear from the nth display unit αn. The display of the display image G may be retained. For example, when the first conformity attribute is "adult", the display of the display image G disappears from the nth display unit αn when only the "child" passes through the place where the nth display unit αn is located, but the "child" is displayed. When an "adult" is accompanied, the display of the display image G does not have to disappear from the nth display unit αn.
(2)第1実施形態〜第5実施形態において、例えば、駅に配置される表示部αにコンビニエンスストアのような商業施設で販売されている商品の在庫を示す画像をイベント情報として表示させてもよい。その結果、駅を利用する通行人は、駅から移動する途中に利用する商業施設を決定することが可能になる。 (2) In the first to fifth embodiments, for example, an image showing the inventory of products sold in a commercial facility such as a convenience store is displayed as event information on the display unit α arranged at the station. May be good. As a result, passers-by who use the station can decide which commercial facility to use on the way from the station.
(3)第1実施形態〜第3実施形態において、複数の表示部αが配置される地域の天気を予測する天気情報を制御部53がインターネットを介して取得してデータベースに登録してもよい。この場合、制御部53は、複数の表示部αが配置される地域の天気を、天気情報に基づいて予測し、予測した天気に合わせて対象グループに表示画像Gを表示させる時間帯を決定してもよい。例えば、制御部53は、晴れ、又は、曇りと予測する時間帯を、表示画像Gを表示させる時間帯に決定する。その結果、表示画像Gを表示させる時間帯に決定する際、天気を反映させることが可能になる。
(3) In the first to third embodiments, the
(4)第1実施形態〜第3実施形態において、複数のユーザーの間で、同一の表示部αに表示画像Gを表示させる時間帯が競合した場合、例えば、先着順で表示部αに表示画像Gを表示させることができるユーザーを決定してもよい。また、表示画像Gを表示させる時間帯を、複数のユーザーの間で分配してもよい。この場合、例えば、料金を多く支払ったユーザーのほうが分配される時間が長くなる。 (4) In the first to third embodiments, when the time zones for displaying the display image G on the same display unit α conflict among a plurality of users, for example, they are displayed on the display unit α on a first-come-first-served basis. The user who can display the image G may be determined. Further, the time zone for displaying the display image G may be distributed among a plurality of users. In this case, for example, the user who paid a large amount of money will be distributed for a longer time.
(5)第1実施形態〜第3実施形態において、画像表示システムXを利用するユーザーの属性に応じて、対象グループに表示画像Gを表示させるために必要な料金の額を変更してもよい。この場合、料金算出部54は、例えば、画像イベント情報G1(図2参照)に基づいて画像表示システムXの利用者の属性を算出し、ユーザーの属性に基づいて料金を算出する。例えば、企業よりも個人の方が、料金が安くなるように、料金算出部54が料金を算出する。その結果、画像表示システムXの利用者の属性を反映させた料金を算出することが可能になる。
(5) In the first to third embodiments, the amount of the charge required to display the display image G in the target group may be changed according to the attribute of the user who uses the image display system X. .. In this case, the
(6)自動車のような車両に表示部αを配置してもよい。この場合、例えば、通行止めが発生すると、通行止めが発生していることを示す通行止め画像を読取部10で読み取る。そして、通行止めが発生している場所の近くを走行している車両の表示部αに、画像処理装置100の通信部40を介して通行止め画像を送信する。そして、車両の表示部αに通行止め画像をイベント情報として表示させる。その結果、車両のドライバーは、通行止めが発生していることを認識することが可能になる。
(6) The display unit α may be arranged in a vehicle such as an automobile. In this case, for example, when a traffic closure occurs, the
なお、カーナビゲーションを表示部αとして利用してもよい。また、カーナビゲーションを表示部αとして利用する場合、カーナビゲーションの通信機能を利用して、表示部αが画像処理装置100の通信部40と通信してもよい。なお、カーナビゲーションを表示部αとして利用する場合、画像処理装置100の制御部53は、カーナビゲーションに表示させる画像を文字情報だけで構成された簡素な画像に加工し、加工後の画像をカーナビゲーションに表示させてもよい。つまり、カーナビゲーションの画面が、デジタルサイネージで利用される一般的な表示部αの画面よりも小さい点を考慮して、制御部53がカーナビゲーションに表示させる表示画像Gを簡素な画像に加工してもよい。その結果、カーナビゲーションの画面のサイズに合わせた画像を形成することが可能になる。
The car navigation system may be used as the display unit α. Further, when the car navigation is used as the display unit α, the display unit α may communicate with the
本発明は、画像処理装置、及び画像表示システムの分野に利用可能である。 The present invention can be used in the fields of image processing devices and image display systems.
10 読取部
30 記憶部
32 第1対応情報
33 第2対応情報
34 第3対応情報
51 算出部
52 決定部
53 制御部
100 画像処理装置
200 情報装置
G 表示画像
G1 画像イベント情報
G2 画像場所情報
L 場所情報
M グループ
S シート
X 画像表示システム
α 表示部
αn 第n表示部
β 撮像部
10
Claims (9)
シートに形成された表示画像を読み取る読取部と、
前記表示画像に基づいて、前記表示画像に表示された画像場所情報を算出する算出部と、
複数の場所情報と、複数のグループとをそれぞれ対応付けた第1対応情報を記憶する記憶部と、
前記第1対応情報と前記画像場所情報とに基づいて、前記複数のグループのうちから対象グループを決定する決定部と、
前記第1表示部〜前記第N表示部の各々を制御する制御部と
を備え、
前記画像場所情報、及び前記複数の場所情報の各々は、住所を示す情報、及び/又は、施設の名称を示す情報を含み、
前記複数のグループの各々は、前記第1表示部〜前記第N表示部のうちの少なくとも1つを含み、
前記制御部は、前記第1表示部〜前記第N表示部のうち、前記対象グループに含まれる表示部である対象表示部に前記表示画像を表示させる、画像処理装置。 An image processing device using an information device including a first display unit to an Nth (N is an integer of 2 or more) display units arranged at different locations.
A reading unit that reads the display image formed on the sheet,
A calculation unit that calculates image location information displayed on the displayed image based on the displayed image,
A storage unit that stores first correspondence information in which a plurality of location information and a plurality of groups are associated with each other.
A determination unit that determines a target group from the plurality of groups based on the first correspondence information and the image location information.
A control unit that controls each of the first display unit to the Nth display unit is provided.
Each of the image location information and the plurality of location information includes information indicating an address and / or information indicating the name of a facility.
Each of the plurality of groups includes at least one of the first display unit to the Nth display unit.
The control unit is an image processing device that displays the display image on a target display unit, which is a display unit included in the target group, among the first display unit to the Nth display unit.
第n(nは1以上N以下の整数)人数情報は、第n表示部を通過した通行人の人数と、時刻との関係を示し、
前記算出部は、前記第2対応情報に基づいて、前記対象表示部に前記表示画像を表示させる時刻又は時間帯である対象時間を算出し、
前記対象時間になると、前記制御部が前記対象表示部に前記表示画像を表示させる、請求項1に記載の画像処理装置。 The storage unit further stores the second correspondence information in which the first display unit to the Nth display unit and the first person information to the Nth person information are associated with each other.
The nth (n is an integer of 1 or more and N or less) number information indicates the relationship between the number of passersby passing through the nth display unit and the time.
Based on the second correspondence information, the calculation unit calculates a target time, which is a time or time zone for displaying the display image on the target display unit.
The image processing apparatus according to claim 1, wherein the control unit causes the target display unit to display the display image at the target time.
第n(nは1以上N以下の整数)撮像部は、第n表示部の周辺を撮像する、請求項1又は請求項2に記載の画像処理装置。 The information device further includes a first imaging unit to an Nth imaging unit.
The image processing apparatus according to claim 1 or 2, wherein the nth (n is an integer of 1 or more and N or less) imaging unit images the periphery of the nth display unit.
第n(nは1以上N以下の整数)撮像部は、第n表示部の周辺を撮像し、
前記制御部は、前記第1撮像部〜前記第N撮像部の各々により撮像された通行人の画像に基づいて前記第2対応情報を更新する、請求項2に記載の画像処理装置。 The information device further includes a first imaging unit to an Nth imaging unit.
The nth (n is an integer of 1 or more and N or less) imaging unit images the periphery of the nth display unit.
The image processing device according to claim 2, wherein the control unit updates the second correspondence information based on an image of a passerby imaged by each of the first imaging unit to the Nth imaging unit.
前記記憶部は、第1イベント情報〜第P(Pは2以上の整数)イベント情報と、第1イベント属性〜第Pイベント属性とをそれぞれ対応付けた第3対応情報をさらに記憶し、
第p(pは1以上P以下の整数)イベント属性は、第pイベント情報に適合する人物の属性を示し、
前記制御部は、
前記画像イベント情報、及び前記第3対応情報に基づいて、前記画像イベント情報に適合する人物の属性である適合属性を算出し、
前記第n撮像部が撮像している通行人である被撮像人の画像に基づいて、前記被撮像人の属性を算出し、
前記被撮像人が前記適合属性を有しない場合、前記第n表示部が前記被撮像人を撮像している間は、前記対象表示部に前記表示画像を表示させない、請求項3に記載の画像処理装置。 The calculation unit calculates the image event information displayed on the display image based on the display image, and calculates the image event information.
The storage unit further stores the third correspondence information in which the first event information to the P (P is an integer of 2 or more) event information and the first event attribute to the P event attribute are associated with each other.
The p-th (p is an integer of 1 or more and P or less) event attribute indicates the attribute of the person who matches the p-event information.
The control unit
Based on the image event information and the third correspondence information, a conformity attribute which is an attribute of a person who conforms to the image event information is calculated.
The attributes of the imaged person are calculated based on the image of the imaged person who is a passerby imaged by the nth imaging unit.
The image according to claim 3, wherein when the imaged person does not have the conforming attribute, the display image is not displayed on the target display unit while the nth display unit is imaging the imaged person. Processing equipment.
前記制御部は、前記表示可能領域のサイズに合わせたサイズを有する前記表示画像を、前記表示可能領域に表示させる、請求項1から請求項6のいずれか1項に記載の画像処理装置。 The target display unit has a displayable area on which an image can be displayed.
The image processing device according to any one of claims 1 to 6, wherein the control unit displays the display image having a size matching the size of the displayable area in the displayable area.
前記記憶部は、第1表示画像〜第Q(Qは2以上の整数)表示画像と、第1画像属性〜第Q画像属性とをそれぞれ対応付けた第4対応情報をさらに記憶し、
第q(qは1以上Q以下の整数)画像属性は、第q表示画像に適合する人物の属性を示し、
前記制御部は、
前記第n撮像部が通行人を撮像すると、前記第n撮像部が撮像している通行人である被撮像人の属性を算出し、
前記第4対応情報に基づいて、前記第1表示画像〜前記第Q表示画像のうちから、前記被撮像人の属性に適合する前記表示画像である適合画像を算出し、
前記第n撮像部が前記被撮像人を撮像している間、前記第n表示部に前記適合画像を表示させる、請求項3に記載の画像処理装置。 The control unit calculates the attributes of the passerby based on the images of the passerby imaged by each of the first imaging unit to the Nth imaging unit.
The storage unit further stores the fourth correspondence information in which the first display image to the Qth (Q is an integer of 2 or more) display image and the first image attribute to the Qth image attribute are associated with each other.
The qth (q is an integer of 1 or more and Q or less) image attribute indicates the attribute of a person who matches the qth display image.
The control unit
When the nth imaging unit images a passerby, the attributes of the imaged person who is the passerby imaged by the nth imaging unit are calculated.
Based on the fourth correspondence information, from the first display image to the Qth display image, a conforming image which is the display image conforming to the attribute of the imaged person is calculated.
The image processing apparatus according to claim 3, wherein the conforming image is displayed on the n-th display unit while the n-th imaging unit is imaging the person to be imaged.
前記情報装置と
を備える、画像表示システム。 The image processing apparatus according to any one of claims 1 to 8.
An image display system including the information device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017252145A JP6769429B2 (en) | 2017-12-27 | 2017-12-27 | Image processing device and image display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017252145A JP6769429B2 (en) | 2017-12-27 | 2017-12-27 | Image processing device and image display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019117572A JP2019117572A (en) | 2019-07-18 |
JP6769429B2 true JP6769429B2 (en) | 2020-10-14 |
Family
ID=67304505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017252145A Active JP6769429B2 (en) | 2017-12-27 | 2017-12-27 | Image processing device and image display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6769429B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4591247B2 (en) * | 2005-07-15 | 2010-12-01 | 株式会社日立製作所 | Information display method |
JP5560704B2 (en) * | 2009-12-25 | 2014-07-30 | 日本電気株式会社 | Display schedule setting device, content display system, schedule setting method, and program |
JP2011247914A (en) * | 2010-05-21 | 2011-12-08 | Ntt Docomo Inc | Advertisement distribution system and advertisement distribution method |
JP2016004489A (en) * | 2014-06-18 | 2016-01-12 | 株式会社リコー | Information processing device, server device, information processing system, information processing method, and program |
JP2016021102A (en) * | 2014-07-14 | 2016-02-04 | 株式会社リコー | Advertisement system and advertisement method |
JP6476895B2 (en) * | 2015-01-21 | 2019-03-06 | 富士ゼロックス株式会社 | Content management program and information processing apparatus |
-
2017
- 2017-12-27 JP JP2017252145A patent/JP6769429B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019117572A (en) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4038232B1 (en) | Customer information processing system and method | |
WO2010053191A1 (en) | Electronic advertisement system, electronic advertisement distribution apparatus, electronic advertisement distribution method, and recording medium | |
US11328588B2 (en) | Method for managing vehicle parking within a parking structure | |
EP1148702A2 (en) | Digital photograph system | |
JP5002441B2 (en) | Marketing data analysis method, marketing data analysis system, data analysis server device, and program | |
JP2015226634A (en) | Game device and game system | |
JP2007018218A (en) | Advertising effect evaluation supporting method and device | |
CN109886735A (en) | A kind of method and device of advertisement pushing | |
CN102483763B (en) | Information classification device, information classification method and program for same | |
JP6769429B2 (en) | Image processing device and image display system | |
CN111422199A (en) | Driving support device, vehicle, information providing device, driving support system, and driving support method | |
CN110942718A (en) | Information system, information processing method, and non-transitory storage medium | |
KR101854859B1 (en) | Toll collection system for toll road and method of performing thereof | |
JP2005346067A (en) | Image output method, image output device and image output program | |
KR20130049686A (en) | Profit creation method, system and computer-readable recording medium using private shops | |
JP2009193352A (en) | Odds display device, odds display method, and odds display program | |
JP2009020643A (en) | Information output network system | |
JP6127492B2 (en) | Donation reception server, donation reception system, donation reception method, program and recording medium | |
US11562602B2 (en) | Data processing apparatus and data collecting system | |
US20220108230A1 (en) | Apparatus for providing of architecture video | |
JP2019061445A (en) | Image providing system | |
JP2011134228A (en) | Display schedule setting device, contents display system, schedule setting method, and program | |
EP3852043A1 (en) | Advertisement presentation system and advertisement presenting method | |
JP4803427B2 (en) | Photo printing system | |
JP2022006501A (en) | Advertisement display system and advertisement display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6769429 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |