JP2015046016A - Image processing server, image processing system and program - Google Patents
Image processing server, image processing system and program Download PDFInfo
- Publication number
- JP2015046016A JP2015046016A JP2013176907A JP2013176907A JP2015046016A JP 2015046016 A JP2015046016 A JP 2015046016A JP 2013176907 A JP2013176907 A JP 2013176907A JP 2013176907 A JP2013176907 A JP 2013176907A JP 2015046016 A JP2015046016 A JP 2015046016A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image data
- image processing
- display device
- wireless terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像処理サーバ、画像処理システム及びプログラムに関する。 The present invention relates to an image processing server, an image processing system, and a program.
一般に、会議や講演等では、発表者がプロジェクタやディスプレイ等の表示装置に説明資料を表示させ、説明資料に基づき聴講者に対してプレゼンテーションを行う。しかしながら、聴講者の座席の位置や聴講者の視力等によっては、表示装置に表示された説明資料が見えづらかったり、視認できなかったりするといった問題がある。 In general, at a conference or lecture, the presenter displays explanatory materials on a display device such as a projector or a display, and makes a presentation to the audience based on the explanatory materials. However, depending on the position of the listener's seat, the visual acuity of the listener, etc., there is a problem that the explanatory material displayed on the display device is difficult to see or cannot be visually recognized.
そこで、特許文献1には、表示装置の利用者の顔映像に基づき、利用者の視認能力を判別し、その判別結果に基づいて前記表示装置にて表示すべき画像の一部を編集して表示する構成が開示されている。
Therefore, in
一方、非特許文献1には、人の所持する無線端末のGPS受信機を用いて、GPS衛星からの測位信号が受信できない屋内においても、測位を可能とする技術が開示されている。
On the other hand, Non-Patent
しかしながら、特許文献1の技術では、利用者の年齢等によって異なる視認能力を判別できるが、その判別はあくまで顔映像に基づき推定された視認能力に基づくため、利用者の実際の視認能力と異なる場合があり、上記問題を解決できない。また、仮に利用者の実際の視認能力を推定できたとしても、例えば利用者と表示装置とが離れている場合、利用者が表示装置に表示される画像を視認できない場合が起こり得るといった問題を解決できない。
However, in the technique of
また、非特許文献1の技術では、屋内における測位を可能とするが、聴講者のユーザ属性に適した画像を提供するための技術に関連する記載はない。
Moreover, although the technique of
本発明は、上記の点に鑑みてなされたものであって、画像を表示する表示装置とユーザとの距離及びユーザの視覚特性に基づき、ユーザに適した画像を表示出力することを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to display and output an image suitable for the user based on the distance between the display device that displays the image and the user and the visual characteristics of the user. .
そこで上記課題を解決するため、本発明の画像処理サーバは、画像データに基づき画像を表示する表示装置に提供する画像データに対して、所定の処理を施す画像処理サーバであって、前記表示装置及び該表示装置が位置する所定のエリア内のユーザの位置情報を取得する取得手段と、前記ユーザ毎の視覚特性を記憶するユーザ特性記憶手段と、前記画像データを、前記取得手段により取得された前記位置情報に基づき特定される前記表示装置と前記ユーザとの距離と、前記ユーザ特性記憶手段により記憶される前記ユーザの視覚特性とに基づく表示態様を有する画像データに最適化する最適化手段とを有する。 In order to solve the above-described problem, an image processing server according to the present invention is an image processing server that performs predetermined processing on image data provided to a display device that displays an image based on image data. And acquisition means for acquiring position information of a user in a predetermined area where the display device is located, user characteristic storage means for storing visual characteristics for each user, and the image data acquired by the acquisition means An optimization unit that optimizes image data having a display mode based on a distance between the display device specified based on the position information and the user, and a visual characteristic of the user stored by the user characteristic storage unit; Have
本発明によれば、画像を表示する表示装置とユーザとの距離及びユーザの視覚特性に基づき、ユーザに適した画像を表示出力できる。 According to the present invention, it is possible to display and output an image suitable for the user based on the distance between the display device that displays the image and the user and the visual characteristics of the user.
以下、本発明の実施の形態(以下、実施形態という。)を図面に基づいて説明する。
〔第1の実施形態〕
[システム構成]
図1は、本発明の第1の実施形態における画像処理システムのシステム構成の一例を示す図である。
Hereinafter, embodiments of the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings.
[First embodiment]
[System configuration]
FIG. 1 is a diagram illustrating an example of a system configuration of an image processing system according to the first embodiment of the present invention.
図1に示すように、本発明の第1の実施形態における画像処理システム1は、画像処理サーバ100と、ユーザ情報管理サーバ200と、位置情報管理サーバ300と、無線端末400a、400b、400c、400d(それぞれを区別しない場合「無線端末400」という。)と、配信装置500a、500b、500c、500d(それぞれを区別しない場合「配信装置500」という。)と、管理装置600と、表示装置700と、投影用PC800と、マイク1000とを有する。なお、表示装置700及び投影用PC800には、それぞれ無線端末400c、400dが取り付けられている(表示装置700及び投影用PC800に無線端末400が内蔵されている場合を含む。)。なお、無線端末400、配信装置500及び管理装置600は、図1に示した台数に限らず、任意の台数が存在してもよい。
As shown in FIG. 1, the
また、無線端末400と、配信装置500と、管理装置600とは、ZigBee(登録商標)、Bluetooth(登録商標)又はWiFi(登録商標)(無線LAN)等の無線通信規格に従う図2に示すような無線ネットワークN1を構成する。図2は、図1から無線ネットワークN1を構成する各装置を抜粋した無線ネットワークN1の構成の一例を示す図である。なお、図2において、各装置の配置と数は、図1と異なる。図2に示されるように、無線ネットワークN1は、例えば、メッシュ型のネットワークを構成し、管理装置600を介して、位置情報管理サーバ300が接続されたネットワークN1と接続される。
Further, the
また、管理装置600は、LAN(Local Area Network)又はインターネット等の有線又は無線のネットワークN2に接続され、位置情報管理サーバ300と通信が可能である。また、画像処理サーバ100と、ユーザ情報管理サーバ200と、位置情報管理サーバ300とは、ネットワークN2に接続され、互いに通信が可能である。
The
また、投影用PC800は、例えば無線LANである無線ネットワークN3によりアクセスポイントAPを介して、ネットワークN2と接続する画像処理サーバ100と互いに通信が可能である。なお、表示装置700が無線LAN通信機能を有する場合、表示装置700はアクセスポイントAPを介して画像処理サーバ100との通信が可能である。
Further, the projection PC 800 can communicate with the
本発明の第1の実施形態における画像処理システム1は、発表や説明のための電子的な資料が用いられる会議等において、画像を表示(投影)する表示装置700と聴講者との距離及び聴講者のユーザ属性(視覚特性、聴覚特性)に基づき、画像の表示態様を最適化するシステムである。なお、本発明の第1の実施形態における画像の表示態様とは、画像に含まれる文字、図形、記号又はこれらの組合せ(文字等)において文字等のサイズ又は文字等の色彩をいう。また、視覚特性とは、例えば視力及び色覚の少なくともいずれか一方をいう。なお、画像処理システム1は、電子的な資料が説明等のために用いられる会合であれば、その呼称を問わずに適用できる。例えば、電子的な資料を用いた講演や電子的な参考書や教科書を資料とした勉強会、電子的な掲示板を資料とした意見交換会等に適用できる。
The
無線端末400は、例えばIMES(Indoor MEssaging System)のような配信装置500から配信される屋内向けの測位信号を受信して、位置情報を取得可能な装置である。無線端末400は、ユーザが所持する位置情報の管理対象に取り付けられる(又は内蔵される)、例えばRFID(Radio Frequency IDentification)タグである。管理対象とは、例えばユーザが携行可能な物品であるICカード若しくはスマートフォン、タブレット、ラップトップPC、表示装置700又は投影用PC800等である。なお、表示装置700及び投影用PC800は、所定の場所に備え付けられて使用されてもよい。無線端末400は、測位信号を受信して取得した位置情報を、無線ネットワークN1(すなわち配信装置500及び管理装置600)を介して、位置情報管理サーバ300に送信する。ここで、例えば、無線ネットワークN1がZigBeeによって形成される場合、無線端末400は、ZigBeeエンドポイントとしての機能(データの中継機能を持たず、末端の端末としてのみ動作する機能)を有する。なお、無線端末400は、測位信号を受信し、受信した測位信号を位置情報管理サーバ300に対して送信する機能を備えれば、RFIDタグに限らない。
The
配信装置500は、例えばIMESのような屋内向けの測位信号を所定の領域(例えば図1の円錐)に配信する装置である。測位信号は、例えば、緯度、経度及びフロア等によって表される位置情報を含む。配信装置500が送信する位置情報は、その配信装置500が設置された位置を表す。測位信号が送信される所定の領域は、測位信号を送出する出力によって決定される。上述したように、配信装置500は、無線端末400及び管理装置600とともに、無線ネットワークN1を形成し、無線端末400からの通信を中継する機能を有する。例えば、無線ネットワークN1がZigBeeによって構築される場合には、配信装置500は、ZigBeeルータとしての機能(ZigBeeエンドポイント又は他のZigBeeルータからのデータ中継機能)を有する。
The
管理装置600は、無線ネットワークN1を管理し、無線端末400及び配信装置500とともに形成する無線ネットワークN1と、位置情報管理サーバ300の接続されたネットワークN2とを相互に接続し、二つのネットワーク間で通信を変換する機能を有する装置である。例えば、無線ネットワークN1がZigBeeによって構築される場合には、管理装置600は、ZigBeeコーディネータとしての機能(無線ネットワークの立ち上げと管理機能)を有する。
The
位置情報管理サーバ300は、有線LAN又は無線LANによる通信機能、各無線端末400から送信された位置情報を取得し、管理する位置情報管理機能を有するサーバ装置である。なお、画像処理サーバ100は、無線端末400の位置情報を、無線端末400を一意に識別する識別情報(無線端末識別情報)毎に管理する。
The location
画像処理サーバ100は、聴講者の視覚特性及び聴講者と表示装置700との距離に基づいて、画像データに基づく画像の表示態様を聴講者が見やすいように最適化する画像処理機能及び最適化した画像データを表示装置700に送信する通信機能を有するサーバ装置である。なお、画像データは、電子的な資料であり、データの形式は問わない。画像データは、例えばMS PowerPoint(登録商標)、MS Word(登録商標)、MS Excel(登録商標)、PDF(Portable Document Format)、JPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)又はBitmap形式のデータである。但し、データの形式は、上記に限らない。
The
ユーザ情報管理サーバ200は、ユーザである聴講者のユーザ属性に関する情報の一つである視覚特性に関する情報(視覚特性情報)等を記憶し、ネットワークに接続されるNAS(Network Attached Storage)である。
The user
なお、画像処理サーバ100、ユーザ情報管理サーバ200及び位置情報管理サーバ300は、一台の装置に統合されてもよいし、これらの機能を分散して備える一台以上の情報処理装置により構成されるシステムであってもよい。例えば、画像処理サーバ100が、ユーザ情報管理サーバ200が有する機能を備えるように構成してもよい。
Note that the
表示装置700は、例えばプロジェクタ、液晶若しくは有機EL(Electro Luminescence)等のディスプレイ等である。なお、図1には、例えば表示装置700がプロジェクタ又はディスプレイである場合、表示装置700が、プロジェクタ又はディスプレイに接続された投影用PC800を介して画像処理サーバ100から画像データを受信する構成となる例を示している。但し、プロジェクタ又はディスプレイが無線LAN通信機能を備える場合、表示装置700が無線ネットワークN3を介して直接、画像処理サーバ100と通信を行ってもよい。なお、表示装置700には、スマートフォン、タブレット又はラップトップPC等の表示端末が含まれる。
The
投影用PC800は、発表者による表示装置700が表示出力する画面等の操作に用いられ、画像処理サーバ100と通信を行う通信機能を有するクライアント端末である。なお、上述したように、表示装置700が無線ネットワークN3を介した通信機能を有する場合、投影用PC800は不要とする構成としてもよい。
[ハードウェア構成]
<画像処理サーバ>
図3は、本発明の第1の実施形態における画像処理サーバ100のハードウェア構成の一例を示す図である。画像処理サーバ100は、CPU11と、RAM12と、ROM13と、HDD14と、有線通信装置15と、キーボード16と、マウス17と、ディスプレイ18とを有する。
[Hardware configuration]
<Image processing server>
FIG. 3 is a diagram illustrating an example of a hardware configuration of the
CPU11は、画像処理サーバ100の動作を制御するプログラムを実行する。RAM12は、CPU11のワークエリアを構成する。ROM13は、画像処理サーバ100のシステムプログラム等を記憶する。HDD14は、画像処理サーバ100で実行されるアプリケーション等を記憶する。有線通信装置15は、LANに接続するためのNIC(Network Interface Card)である。キーボード16及びマウス17は、画像処理システム1の管理者等から入力を受け付ける装置である。ディスプレイ18は、管理者等に対して情報を表示出力する装置である。バス19は、上記装置を電気的に接続する。
The
上記構成により、本発明の第1の実施形態における画像処理サーバ100は、画像データを加工し、表示態様を最適化する処理等を実行できる。
With the configuration described above, the
<ユーザ情報管理サーバ>
図4は、本発明の第1の実施形態におけるユーザ情報管理サーバ200のハードウェア構成の一例を示す図である。ユーザ情報管理サーバ200は、CPU21と、RAM22と、ROM23と、HDD24と、無線通信装置25と、キーボード26と、マウス27と、ディスプレイ28とを有する。また、バス29は、上記装置を電気的に接続する。
<User information management server>
FIG. 4 is a diagram illustrating an example of a hardware configuration of the user
なお、CPU21、RAM22、ROM23、HDD24、キーボード26、マウス27、ディスプレイ28は、それぞれ図3に示したCPU11、RAM12、ROM13、HDD14、キーボード16、マウス17、ディスプレイ18に対応する。但し、ROM23がユーザ情報管理サーバ200のシステムプログラムを記憶し、HDD24がユーザ属性に関する情報の一例であるユーザの視覚特性に関する情報を記憶する点が異なる。
The
上記構成により、本発明の第1の実施形態におけるユーザ情報管理サーバ200は、ユーザの視覚特性情報を記憶できる。
With the above configuration, the user
<位置情報管理サーバ>
図5は、本発明の第1の実施形態における位置情報管理サーバ300のハードウェア構成の一例を示す図である。位置情報管理サーバ300は、CPU31と、RAM32と、ROM33と、HDD34と、無線通信装置35と、キーボード36と、マウス37と、ディスプレイ38とを有する。また、バス39は、上記装置を電気的に接続する。
<Location information management server>
FIG. 5 is a diagram illustrating an example of a hardware configuration of the location
なお、CPU31、RAM33、ROM33、HDD34、キーボード36、マウス37、ディスプレイ38は、それぞれ図3に示したCPU11、RAM13、ROM13、HDD14、キーボード16、マウス17、ディスプレイ18に対応する。但し、ROM33が位置情報管理サーバ300のシステムプログラムを記憶し、HDD34が無線端末400の位置情報を記憶する点が異なる。
The
上記構成により、本発明の第1の実施形態における位置情報管理サーバ300は、無線端末400が送信する位置情報を受信し、その位置情報を蓄積できる。
With the above configuration, the location
<無線端末>
図6は、本発明の第1の実施形態における無線端末400のハードウェア構成の一例を示す図である。図6には、無線端末400がRFIDタグである例を示している。無線端末400は、CPU41と、RAM42と、ROM43と、無線通信装置44と、測位信号受信装置45とを有する。
<Wireless terminal>
FIG. 6 is a diagram illustrating an example of a hardware configuration of the
CPU41は、無線端末400の動作を制御するプログラムを実行する。RAM42は、CPU41のワークエリアを構成する。ROM44は、無線端末400のシステムプログラム等を記憶する。無線通信装置44は、例えば、ZigBee又はBluetoothにより、外部の装置と通信するための装置である。なお、任意の種類の無線通信装置44が、複数設けられてもよい。また、無線端末400がスマートフォンやタブレット等の携帯端末(表示端末)に内蔵されている場合等、無線通信装置44は、4GやLTE等の移動通信網又はWiFi等による通信を行う装置であってもよい。測位信号受信装置45は、配信装置500から送信された測位信号を受信する装置である。バス46は、上記装置を電気的に接続する。
The
上記構成により、本発明の第1の実施形態における無線端末400は、屋内において測位信号を受信し、位置情報を取得することができる。また、無線端末400は、取得した位置情報を、無線ネットワークN1を介して、位置情報管理サーバ300に送信することができる。
With the above configuration, the
<配信装置>
図7は、本発明の第1の実施形態における配信装置500のハードウェア構成の一例を示す図である。配信装置500は、CPU51と、RAM52と、ROM53と、無線通信装置54と、測位信号配信装置55とを有する。
<Distributor>
FIG. 7 is a diagram illustrating an example of a hardware configuration of the
CPU51は、配信装置500の動作を制御するプログラムを実行する。RAM52は、CPU51のワークエリア等を構成する。ROM53は、CPU51が実行するプログラムや、プログラムの実行に必要なデータを記憶する。無線通信装置54は、無線端末500及び管理装置600と、無線ネットワークN1を介して通信するための装置である。測位信号配信装置55は、無線端末500が現在位置を取得するために用いる測位信号を送信する装置であり、例えば、IMES規格により定義されたフレームフォーマットで測位信号を送信する。より具体的には、測位信号配信装置55は、IMES規格によって定義されるフレーム構造を有するデータを用いて、1.5GHzの搬送波を変調して信号を生成し、これをアンテナより送出する。バス56は、上記装置を電気的に接続する。
The
上記構成により、本発明の第1の実施形態における配信装置500は、所定の領域(無線端末400)に測位信号を配信できる。また、配信装置500は、無線端末400と管理装置600とにより無線ネットワークN1を構成し、無線端末400から送信された位置情報を、他の配信装置500又は管理装置600に中継することができる。
With the above configuration, the
<管理装置>
図8は、本発明の第1の実施形態における管理装置600のハードウェア構成の一例を示す図である。管理装置600は、CPU61と、RAM62と、ROM63と、無線通信装置64と、有線通信装置65とを有する。
<Management device>
FIG. 8 is a diagram illustrating an example of a hardware configuration of the
CPU61は、管理装置600の動作制御を行う。プログラムを実行する。RAM62は、CPU61のワークエリア等を構成する。ROM63は、CPU61が実行するプログラムや、プログラムの実行に必要なデータを記憶する。無線通信装置64は、無線端末400及び配信装置600と、無線ネットワークN1を介して通信するための装置である。有線通信装置65は、LANに接続するためのNICである。バス66は、上記装置を電気的に接続する。
The
上記構成により、本発明の第1の実施形態における管理装置600は、無線端末400と配信装置500とにより構成される無線ネットワークN1と、ネットワークN2とを相互に接続することができる。
With the above configuration, the
<表示装置>
図9は、本発明の実施の形態における表示装置700のハードウェア構成の一例を示した図である。表示装置700には無線端末400が外部に取り付けられている。但し、無線端末400が表示装置700に内蔵されている構成でもよい。
<Display device>
FIG. 9 is a diagram illustrating an example of a hardware configuration of the
図11に示されるように、表示装置700は、表示装置700全体の動作を制御するCPU71、基本入出力プログラムを記憶したROM72、CPU71のワークエリアとして使用されるRAM73、フラッシュメモリ等の記録メディア74aに対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ74を備えている。そして、メディアドライブ74の制御に従って、既に記録されていたデータが読み出され又は新たにデータが書き込まれて記憶する記録メディア74aが着脱自在な構成となっている。
As shown in FIG. 11, the
さらに、表示装置700は、投影用PC800とVGA接続又はDVI接続により通信を行う通信装置75、光を透過させることで画像を出力する液晶パネル76、ユーザに対する情報を表示する液晶や有機EL等のディスプレイ77、ユーザからの入力を受け付けるインタフェースであるハードボタンやリモコン、ソフトキー等の入力部78及び上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン79を備えている。
Further, the
上記構成により、本発明の第1の実施形態における表示装置700は、画像データに基づく画像を表示出力できる。
With the above configuration, the
<投影用PC>
本発明の第1の実施形態における投影用PC800は、図3〜図5に示したハードウェア構成を備える構成であればよい。
<Projection PC>
The
[機能構成]
図10は、本発明の第1の実施形態における画像処理システム1の機能構成の一例を示す図である。
[Function configuration]
FIG. 10 is a diagram illustrating an example of a functional configuration of the
<配信装置>
本発明の第1の実施形態における配信装置500は、位置情報格納部501と、測位信号配信部502と、中継部503とを有する。各機能はCPU51がプログラムを実行し、ハードウェアと協働することで実現される。
<Distributor>
The
位置情報格納部501は、配信装置500が設置される位置を表す位置情報を格納する。屋内に設置される配信装置500の位置情報には、例えば、緯度、経度、フロア等の情報が含まれる。なお、位置情報は、上記に限らず、例えば建物の棟を示す情報等が含まれてもよい。
The position
測位信号配信部502は、位置情報格納部501に格納された位置情報を含む測位信号を生成して、所定の領域に配信する。所定の領域は、測位信号配信装置55からの電波の送信出力によって決定される。
The positioning
中継部503は、無線端末400から送信されたデータを、他の配信装置500又は管理装置600に中継する。中継されたデータは、その後、位置情報管理サーバ300へと伝送される。中継部503は、無線ネットワークN1がZigBeeによって構成される場合には、ZigBeeルータの機能を提供する。
The
<無線端末>
本発明の第1の実施形態における無線端末400は、測位信号受信部401と、位置情報抽出部402と、無線端末識別情報格納部403と、位置情報送信部404とを有する。各機能はCPU41がプログラムを実行し、ハードウェアと協働することで実現される。
<Wireless terminal>
The
測位信号受信部401は、配信装置500の測位信号配信部502から配信された測位信号を受信する。
The positioning
位置情報抽出部402は、配信装置500から送信された測位信号から、位置情報を抽出する。上述したように、位置情報は、緯度、経度、フロア等の情報を含む。
The position
無線端末識別情報格納部403は、当該無線端末400を一意に識別するための無線端末識別情報を格納する。無線端末識別情報は、例えばMACアドレスである。
The wireless terminal identification
位置情報送信部404は、位置情報抽出部402が取得した位置情報と、無線端末識別情報格納部403に格納された無線端末識別情報とを、位置情報管理サーバ300に送信する。ここで、無線端末400の位置情報及び無線端末識別情報は、まず無線ネットワークN1を介して、最寄りの配信装置500に送信され、その後、他の配信装置500又は管理装置600を経由して、位置情報管理サーバ300に伝送される。
The position
<管理装置>
本発明の第1の実施形態における管理装置600は、変換部601を有する。上記機能はCPU61がプログラムを実行し、ハードウェアと協働することで実現される。なお、管理装置600は、無線ネットワークN1がZigBeeによって構成される場合には、ZigBeeコーディネータとしての機能を提供する。
<Management device>
The
変換部601は、無線ネットワークN1を介して、無線端末400又は配信装置500から受信した位置情報及び無線端末識別情報を、位置情報管理サーバ300が接続されたネットワークN2に適合する形式に変換する。そして、変換部601は、位置情報及び無線端末識別情報を、位置情報管理サーバ300に送信する。
The conversion unit 601 converts the position information and wireless terminal identification information received from the
<位置情報管理サーバ>
本発明の第1の実施形態における位置情報管理サーバ300は、位置情報受信部301と、位置情報記憶部302と、エリア情報記憶部303と、無線端末関連情報記憶部304と、位置情報管理部305とを有する。各機能はCPU31がプログラムを実行し、ハードウェアと協働することで実現される。
<Location information management server>
The location
位置情報受信部301は、無線端末400から送信された、無線端末識別情報及び位置情報を受信する。そして、位置情報受信部301は、無線端末識別情報及び位置情報を、位置情報記憶部302に格納する。
The position information receiving unit 301 receives wireless terminal identification information and position information transmitted from the
位置情報記憶部302は、無線端末400の無線端末識別情報毎に、無線端末400から送信される位置情報とこれらの情報の受信時刻とを対応付けて位置情報管理テーブルに記憶する。図11は、本発明の第1の実施形態における位置情報記憶部302の位置情報管理テーブルに記憶される情報の一例を示す図である。図11(a)は、無線端末識別情報が「012345abcdef」の位置情報管理テーブルである。図11(b)は、無線端末識別情報が「112345abcdef」の位置情報管理テーブルである。このように、位置情報管理テーブルは、無線端末識別情報(無線端末400)毎に存在する。なお、位置情報管理テーブルを無線端末400毎のテーブルとするか又は一つのテーブルとするかは設計事項であり、いずれの構成であってもよい。図11に示すように、位置情報管理テーブルは、無線端末400の無線端末識別情報である「無線端末識別情報」、「受信時刻」、「緯度」、「経度」及び「フロア」のデータ項目を有する。「緯度」、「経度」及び「フロア」は、無線端末400から送信される位置情報に含まれる情報である。「受信時刻」は、無線端末400からの位置情報を受信した年月日時分秒を示す時刻である。
For each wireless terminal identification information of the
エリア情報記憶部303は、図12に示すように、会議室等のエリアに対応する位置情報を記憶する。資産である投影用PC800と無線端末400との対応関係及び投影用PC800の保管位置に関する情報を、エリア情報管理テーブルに記憶する。図12は、本発明の第1の実施形態におけるエリア情報記憶部303のエリア情報管理テーブルに記憶される情報の一例を示す図である。エリア情報管理テーブルは、「エリアID」と「エリア名」と「エリア位置情報」に含まれる「フロア」、「東端」、「西端」、「南端」及び「北端」とのデータ項目を有する。「エリアID」は、エリア情報管理テーブルにおいてエリア名及びそのエリアに対応する位置情報等を一意に識別するための識別番号である。「エリア名」は、会議室等の場所を示すエリアの名称である。「エリア位置情報」は、エリアに対応する位置情報である。「フロア」は、エリアが属する建物内のフロア(階数)である。「東端」及び「西端」は、エリアの東側と西側との境界線を経度(東経)で表したものである。「南端」及び「北端」は、区域の南側と北側との境界線を緯度(北緯)で表したものである。すなわち、エリアの範囲は矩形で定義され得る。図12の例では、エリアID「1」に対応するエリア名「会議室A」は、北緯「35.48093」から北緯「35.48454」、東経「139.32003」から東経「139.32102」の4つの線に囲まれた範囲であって、「2」階であることを示す。なお、本発明の実施の形態におけるエリアの位置(範囲)の定義は、上記の方法に限らず、例えば、複数の緯度及び経度を用いて三つ以上の辺を有する多角形等によって、エリアの範囲を定義してもよい。また、その他の方法として、エリアの範囲内に固定的に設置される配信装置500の位置情報に基づき、その位置情報に対応する複数の点(緯度、経度)によりエリアの範囲を定義してもよい。
As shown in FIG. 12, the area
無線端末関連情報記憶部304は、図13に示すように、無線端末識別情報(無線端末400)毎に、無線端末400が取り付けられ位置の管理対象となる物品に関する情報を、無線端末関連情報管理テーブルに記憶する。図13は、本発明の第1の実施形態における無線端末関連情報記憶部304の無線端末関連情報管理テーブルに記憶される情報の一例を示す図である。図13に示すように、無線端末関連情報管理テーブルは、無線端末400を識別する「無線端末識別情報」、「位置管理対象カテゴリ」及び「位置管理対象名称」のデータ項目を有する。「位置管理対象カテゴリ」は、無線端末400が取り付けられた位置管理対象の物品のカテゴリであり、例えば「表示装置」、「ICカード」又は「スマートフォン」等の情報が設定される。「位置管理対象名称」は、無線端末400が取り付けられた位置管理対象の物品の名称である。
As shown in FIG. 13, the wireless terminal related
位置情報管理部305は、画像処理サーバ100からの位置情報取得要求を受け付けると、位置情報記憶部302、エリア情報記憶部303及び無線端末関連情報記憶部304を参照し、所定のエリア内に位置する無線端末400の位置情報等を検索する。そして、位置情報管理部305は、検索した位置情報を含む位置情報取得要求応答を、画像処理サーバ100に送信する。
When the position
<画像処理サーバ>
本発明の第1の実施形態における画像処理サーバ100は、画像データ取得要求受付部101と、位置情報取得部102と、ユーザ属性情報取得部103と、画像データ記憶部104と、表示態様情報記憶部105と、最適化部106と、画像データ送信部107とを有する。各機能はCPU11がプログラムを実行し、ハードウェアと協働することで実現される。
<Image processing server>
The
画像データ取得要求受付部101は、投影用PC800(又は表示装置700)からの画像データ取得要求を受け付ける。画像データ取得要求には、取得対象の画像データを識別する画像データIDと、投影用PC800に取り付けられている無線端末400の無線端末識別情報(投影用PC800の無線端末識別情報)と、投影させる表示装置700の名称である表示装置名とが含まれる。画像データ取得要求受付部101は、受け付けた画像データ取得要求に基づく処理の実行を、位置情報取得部102に指示する。
The image data acquisition
位置情報取得部102は、画像データ取得要求に含まれる投影用PC800の無線端末識別情報及び表示装置名を含む位置情報取得要求を生成し、位置情報管理サーバ300に送信する。そして、位置情報取得部102は、位置情報取得要求の応答として、投影用PC800の位置するエリア(会議室)内に位置する無線端末400の無線端末識別情報及び位置情報を取得する。次に、位置情報取得部102は、ユーザ属性情報取得部103に、取得したエリア内に位置する無線端末400の無線端末識別情報及び位置情報を出力する。なお、無線端末識別情報は、無線端末400が取り付けられた位置管理対象のカテゴリを示す情報と対応付けられている。すなわち、表示装置700に取り付けられた無線端末400であるか又はユーザが所持するICカードやスマートフォン、タブレット等に取り付けられた無線端末400であるかを判別できる。
The position
ユーザ属性情報取得部103は、エリア内に位置する無線端末400の無線端末識別情報を含むユーザ属性情報取得要求を生成し、ユーザ情報管理サーバ200に送信する。ユーザ属性情報取得部103は、ユーザ属性情報取得要求の応答として、エリア内に位置する無線端末400を所持する聴講者のユーザ属性情報(視覚特性及び聴覚特性)を取得する。ユーザ属性情報取得部103は、位置情報取得部102から通知されたエリア内に位置する無線端末400の無線端末識別情報及び位置情報と、取得したユーザ属性情報とを、最適化部106に出力する。
The user attribute
画像データ記憶部104は、画像データを識別する画像データIDに対応付けて、画像データのデータ本体又はデータ本体の保存先URLを記憶する。
The image
表示態様情報記憶部105は、図14に示すように、聴講者の視覚特性に対する聴講者から表示装置700までの距離毎の表示態様に関する情報を、表示態様情報管理テーブルに記憶する。図14は、本発明の第1の実施形態における表示態様情報記憶部105の表示態様情報管理テーブルに記憶される情報の一例を示す図である。図14に示すように、表示態様情報管理テーブルには、視覚特性の一つである視力の五段階のランク(A〜E)のそれぞれに対して、聴講者と表示装置700との距離に応じた、画像データに含まれる表示態様である例えば文字サイズを定義している。図14の例では、例えば視力「A」、距離「1〜3m」の場合、文字サイズは「6pt」となる。なお、表示態様である文字サイズは、表示装置700がプロジェクタである場合、例えばプロジェクタが画像を投影するスクリーンの位置(距離)を考慮したサイズが設定される。なお、視覚特性(視力)のランク並びに距離の区分及び区分の数は、図14に示した例に限らず、任意に設定できる。
As shown in FIG. 14, the display mode
最適化部106は、エリア内に位置する無線端末400の位置情報に基づき、表示装置700と聴講者との距離を算出する。距離の算出は、例えば図15に示すように行われる。
The
図15は、本発明の第1の実施形態において聴講者と表示装置700との距離の算出方法を説明するための図である。図15の例では、表示装置700の位置(緯度,経度)は(x1,y1)、エリア(会議室)内に位置する聴講者は聴講者A及び聴講者Bであり、聴講者Aの位置は(x2,y2)、聴講者Bの位置は(x3,y3)である。最適化部106は、会議室内に位置する全ての聴講者(図15の例では、聴講者A、聴講者B)それぞれと表示装置700との距離を算出する。
FIG. 15 is a diagram for explaining a method for calculating the distance between the listener and the
そして、最適化部106は、算出した距離とエリア内に位置する聴講者のユーザ属性(視覚特性、聴覚特性)とに基づき、画像データに含まれる表示態様の最適化する内容を決定する。具体的には、最適化部106は、表示態様情報記憶部105の表示態様情報管理テーブル(図14)を参照し、視覚特性に含まれる視力に関する情報と算出した距離とに対応する文字サイズを決定する。次に、最適化部106は、画像データ取得要求に含まれる画像データIDに対応する画像データを画像データ記憶部104から取得し、画像データに含まれる表示態様(文字サイズ)が決定した文字サイズに変更された画像データを生成する。そして、最適化部106は、生成した(最適化した)画像データの送信処理を、画像データ送信部107に指示する。
Then, the
画像データ送信部107は、最適化部106からの指示に基づき、画像データ取得要求を行った投影用PC800に対して、アクセスポイントAPを介したネットワークN2及び無線ネットワークN3により、最適化された画像データを送信する。なお、画像データの送信先は、画像データ取得要求を行った投影用PC800に限らず、表示装置700が無線ネットワークN3を介した通信機能を備える場合、表示装置700としてもよい。
Based on an instruction from the
<ユーザ情報管理サーバ>
本発明の第1の実施形態におけるユーザ情報管理サーバ200は、ユーザ情報管理部201と、ユーザ所有端末情報記憶部202と、ユーザ属性情報記憶部203とを有する。各機能はCPU21がプログラムを実行し、ハードウェアと協働することで実現される。
<User information management server>
The user
ユーザ情報管理部201は、ユーザ属性情報記憶部203及びユーザ所有端末情報記憶部202に記憶される情報の読出し、書込み処理を行う。また、ユーザ情報管理部201は、画像処理サーバ100からのユーザ属性情報取得要求を受け付けた場合、ユーザ属性情報取得要求に含まれる無線端末識別情報に対応するユーザ(ユーザID)を、図16に示すようなユーザ所有端末情報記憶部202から取得する。
The user
図16は、本発明の第1の実施形態におけるユーザ所有端末情報記憶部202のユーザ所有端末情報管理テーブルに記憶される情報の一例を示す図である。図16に示すように、ユーザ所有端末情報管理テーブルには、ユーザを一意に識別する「ユーザID」に対応付けて、無線端末400を一意に識別する「無線端末識別情報」、「無線端末取付物品」及び「アドレス情報」が記憶されている。「無線端末取付物品」は、無線端末400が取り付けられた物品の名称である。「アドレス情報」は、無線端末取付物品が無線ネットワークN3を用いた通信機能を備える場合、すなわち無線端末取付物品が例えばスマートフォンやタブレット等の表示端末である場合のIPアドレス等のアドレス情報である。なお、アドレス情報は、IPアドレスに限らず、ユーザの電子メールアドレス等であってもよい。
FIG. 16 is a diagram illustrating an example of information stored in the user-owned terminal information management table of the user-owned terminal
そして、ユーザ情報管理部201は、図17に示すようなユーザ属性情報記憶部203から、取得したユーザIDに対応するユーザ属性情報(視覚特性、聴覚特性)を取得する。
Then, the user
図17は、本発明の第1の実施形態におけるユーザ属性情報記憶部203のユーザ属性情報管理テーブルに記憶される情報の一例を示す図である。図17に示すように、ユーザ属性情報管理テーブルには、「ユーザID」に対応付けて、ユーザ属性情報である「視覚特性」と「聴覚特性」とが記憶されている。「視覚特性」には、A〜Eの五段階のランクで表示される「視力」と、A及びBの二段階のランクで表示される「色覚」とが含まれる。「聴覚特性」は、A及びBの二段階のランクで表示される「聴力」である。
FIG. 17 is a diagram illustrating an example of information stored in the user attribute information management table of the user attribute
そして、ユーザ情報管理部201は、無線端末識別情報に対応付けたユーザ属性情報(視覚特性、聴覚特性)を、ユーザ属性情報取得要求の応答として、画像処理サーバ100に送信する。
Then, the user
<投影用PC>
本発明の第1の実施形態における投影用PC800は、入力受付部801と、表示制御部802と、画像データ取得要求部803と、画像データ受信部804と、画像出力指示部805とを有する。各機能はCPUがプログラムを実行し、ハードウェアと協働することで実現される。
<Projection PC>
The
入力受付部801は、マウスやキーボード等を制御し、ユーザからの情報の入力指示を受け付ける。 The input receiving unit 801 controls a mouse, a keyboard, and the like, and receives an information input instruction from the user.
表示制御部802は、ディスプレイ等を制御し、ユーザに対する情報の表示出力を行う。
The
画像データ取得要求部803は、ユーザに指定された取得対象の画像データの画像データIDと、投影用PC800に接続された投影に使用される表示装置700の名称と、投影用PC800に取り付けられた無線端末400の無線端末識別情報とを含む画像データ取得要求を生成し、画像処理サーバ100に送信する。なお、画像データ取得要求に含まれる画像データを特定するための情報は、画像データIDに限らず、例えば画像データの名称や画像データの保存先を示すURL等であってもよい。
The image data
画像データ受信部804は、画像処理サーバ100により送信される画像データを、無線ネットワークN3を介して受信する。
The image
画像出力指示部805は、投影に使用する表示装置700に対して、画像データの表示出力を指示する。
The image
<表示装置>
本発明の第1の実施形態における表示装置700は、画像出力部701を有し、CPU71がプログラムを実行し、ハードウェアと協働することで実現される。
<Display device>
The
画像出力部701は、投影用PC800からの指示を受け付けると、画像データに基づく画像を表示出力する。
When receiving an instruction from
[処理の詳細]
本発明の第1の実施形態における画像処理システム1の処理は、無線端末400の位置情報を位置情報管理サーバ300が管理する「位置情報管理処理」と、表示態様が最適化された画像データを生成する「画像データ最適化処理」とに大別される。以下、「位置情報管理処理」と「画像データ最適化処理」とのそれぞれについて説明する。
[Process details]
The processing of the
(位置情報管理処理)
図18は、本発明の第1の実施形態における位置情報管理処理の動作手順の一例を示すシーケンス図である。図18を用いて、位置情報管理サーバ300が、無線ネットワークN1を介して、無線端末400の位置情報を取得する処理を説明する。ここで、無線端末400が配信装置500から以下の位置情報を含む測位信号を受信する例を説明する。
−緯度「35.46100」、経度「139.38095」、フロア「2」
ステップS101において、配信装置500の測位信号配信部502は、上記位置情報を含む測位信号を、所定の領域に送信し続ける。
(Location information management process)
FIG. 18 is a sequence diagram illustrating an example of an operation procedure of the location information management process according to the first embodiment of the present invention. A process in which the location
-Latitude "35.46100", longitude "139.338095", floor "2"
In step S101, the positioning
ステップS102において、無線端末400の測位信号受信部401は、配信装置500の測位信号配信部502から送信された測位信号を受信する。
In step S102, the positioning
ステップS103において、無線端末400の位置情報抽出部402は、ステップS102で受信した測位信号に含まれる位置情報を抽出する。この場合、無線端末400が受信した位置情報は、以下の通りとなる。
−緯度「35.46100」、経度「139.38095」、フロア「2」
ステップS104において、無線端末400の位置情報送信部404は、無線端末識別情報格納部403に格納された無線端末識別情報とともに、上記位置情報を、無線ネットワークN1を介して、配信装置500に送信する。ここで、無線端末400の無線端末識別情報は、以下の通りであるものとする。
−「012345abcdef」
なお、ステップS104における位置情報の送信動作は、所定の周期(例えば1秒〜5秒周期)で行われる。また、無線端末400が慣性センサ(加速度センサ、ジャイロセンサ、地磁気センサ等)を備えている場合、無線端末400の動作の検知時に、位置情報の送信動作を実行するようにしてもよい。
In step S103, the position
-Latitude "35.46100", longitude "139.338095", floor "2"
In step S104, the position
-"012345abcdef"
The position information transmission operation in step S104 is performed in a predetermined cycle (for example, a cycle of 1 second to 5 seconds). In addition, when the
ステップS105において、配信装置500の中継部503は、無線端末400から受信した位置情報と無線端末識別情報とを、管理装置600に中継する。
In step S <b> 105, the
ステップS106において、管理装置600の変換部601は、配信装置500の属する無線ネットワークN1から送信された通信データを、位置情報管理サーバ300が接続されるネットワークに適合する形式に変換する。
In step S106, the conversion unit 601 of the
ステップS107において、位置情報管理サーバ300の位置情報受信部301は、配信装置500と管理装置600とを介して伝送された、以下の無線端末400の位置情報と無線端末識別情報とを受信する。
−位置情報:緯度「35.46100」、経度「139.38095」、フロア「2」
−無線端末識別情報:「012345abcdef」
ステップS108において、位置情報管理サーバ300の位置情報記憶部302は、ステップS107で受信した位置情報と無線端末識別情報とを、その受信時刻、例えば「2013/6/26 10:00:05」とともに格納する。
In step S <b> 107, the position information receiving unit 301 of the position
-Position information: latitude "35.46100", longitude "139.338095", floor "2"
-Wireless terminal identification information: "012345abcdef"
In step S108, the location
上記動作手順により、本発明の第1の実施形態における位置情報管理サーバ300は、無線端末400の現在位置を管理することができる。
With the above operation procedure, the location
なお、位置情報管理処理は、後述する画像データ最適化処理に依存せず、独立して実行される処理である。 The position information management process is an independent process that does not depend on an image data optimization process to be described later.
(画像データ最適化処理)
図19は、本発明の第1の実施形態における画像データ最適化処理の動作手順の一例を示すシーケンス図である。図19の例では、投影用PC800及び表示装置700には、無線端末400が取り付けられている。
(Image data optimization processing)
FIG. 19 is a sequence diagram illustrating an example of an operation procedure of image data optimization processing according to the first embodiment of the present invention. In the example of FIG. 19, the
ステップS201において、発表者は投影用PC800を操作し、表示装置700に表示出力させる資料(画像データ)の画像データID及び使用する表示装置700の名称(表示装置名)を指定する。投影用PC800の入力受付部801は、ユーザにより入力された情報を、画像データ取得要求部803に出力する。
In step S201, the presenter operates the
ステップS202において、画像データ取得要求部803は、ユーザに指定された画像データID及び表示装置名と、投影用PC800の無線端末識別情報とを含む画像データ取得要求を生成し、無線ネットワークN3を介して、画像処理サーバ100に送信する。
In step S202, the image data
ステップS203において、画像データ取得要求を受け付けた画像処理サーバ100の画像データ取得要求受付部101は、画像データ取得要求に基づく処理の実行を位置情報取得部102に要求する。位置情報取得部102は、投影用PC800が設置されたエリア(会議室)内の無線端末400の位置情報を取得するための位置情報取得要求を生成し、位置情報管理サーバ300に送信する。なお、位置情報取得要求には、投影用PC800の無線端末識別情報と表示装置名とが含まれる。
In step S203, the image data acquisition
ステップS204において、位置情報取得要求を受信した位置情報管理サーバ300の位置情報管理部305は、位置情報記憶部302、エリア情報記憶部303、無線端末関連情報記憶部304を参照し、投影用PC800が設置されたエリアに含まれる無線端末識別情報と対応する位置情報とを検索する。なお、検索された無線端末識別情報のそれぞれは、位置管理対象カテゴリ(表示装置、ICカード等)が対応付けられている。
In step S204, the position
ステップS205において、位置情報管理部305は、投影用PC800が設置されたエリアに含まれる位置管理対象カテゴリが対応付けられた無線端末識別情報と対応する位置情報とを含む位置情報取得要求応答を、画像処理サーバ100に送信する。
In step S205, the position
画像処理サーバ100の位置情報取得部102は、ユーザ属性情報取得部103に、位置情報取得要求応答に含まれる無線端末識別情報を有する無線端末400を所有する閲覧者のユーザ属性情報の取得処理の実行を要求する。
The position
ステップS206において、ユーザ属性情報取得部103は、位置情報取得要求応答に含まれる無線端末識別情報を含むユーザ属性情報取得要求を生成し、ユーザ情報管理サーバ200に送信する。
In step S <b> 206, the user attribute
ステップS207において、ユーザ属性情報取得要求を受信したユーザ情報管理サーバ200のユーザ情報管理部201は、ユーザ所有端末情報記憶部202及びユーザ属性情報記憶部203を参照し、ユーザ属性情報取得要求に含まれる無線端末識別情報を所有するユーザのユーザ属性情報(視覚特性、聴覚特性)を検索する。
In step S207, the user
ステップS208において、ユーザ情報管理部201は、ユーザ属性情報取得要求応答として、検索したユーザ属性情報(視覚特性、聴覚特性)に無線端末識別情報を対応付けて、画像処理サーバ100に送信する。
In step S <b> 208, the user
画像処理サーバ100のユーザ属性情報取得部103は、ユーザ属性情報取得要求応答を受け付けると、最適化部106に画像データの表示態様の最適化処理の実行を要求する。
Upon receiving the user attribute information acquisition request response, the user attribute
ステップS209において、最適化部106は、上記ステップS205で取得した表示装置700の位置情報と表示装置700以外のユーザ(閲覧者)の位置情報とに基づき、例えば図15の例のように、表示装置700と閲覧者との距離を算出する。
In step S209, the
ステップS210において、最適化部106は、算出した距離と、上記ステップS208で取得したユーザ属性情報とに基づき、表示態様情報記憶部105を参照し、最適化する表示態様を決定する。なお、エリア(会議室)内に、複数の聴講者が存在する場合、最も見やすい表示態様、例えば文字サイズが最も大きい値を、最適化する表示態様として決定する。なお、複数の聴講者が存在する場合、各聴講者毎に決定された表示態様の平均値を、最適化する表示態様に用いてもよい。
In step S210, the
ステップS211において、最適化部106は、決定した表示態様に基づき、画像データ記憶部104に記憶される、上記ステップS202で受信した画像データIDに対応する画像データに含まれる表示態様が最適化(変更)された画像データを生成する。
In step S211, the
ステップS212において、画像データ送信部107は、最適化部106により最適化された画像データを、投影用PC800に送信する。
In step S212, the image
投影用PC800の画像データ受信部804は、画像データを受信すると、画像出力指示部805に画像データを受信したことを通知する。
When receiving the image data, the image
ステップS213において、画像出力指示部805は、使用する表示装置700に対して、画像表示出力指示を送信する。
In step S213, the image
ステップS214において、表示装置700の画像出力部701は、投影用PC800からの画像表示出力指示を受け付けると、画像データに基づく画像を表示出力する。
In step S214, upon receiving an image display output instruction from the
上記動作手順により、本発明の第1の実施形態における画像処理システム1は、会議等におけるエリア(会議室)内の聴講者と表示装置700との距離及び聴講者のユーザ属性(視覚特性、聴覚特性)に基づき、表示装置700により表示出力される画像データに含まれる表示態様を最適化できる。
According to the above operation procedure, the
次に、画像データ最適化処理において位置情報管理サーバ300、ユーザ情報管理サーバ200及び画像処理サーバ100が実行する処理手順の詳細を、それぞれ図20、図21、図22に基づき説明する。
Next, details of processing procedures executed by the position
<位置情報管理サーバ>
以下において説明する位置情報管理サーバ300が実行する処理は、図19に示したステップS204の処理に相当する。
<Location information management server>
The processing executed by the location
図20は、本発明の第1の実施形態の画像データ最適化処理における位置情報管理サーバ300の処理手順の一例を示すフローチャート図である。
FIG. 20 is a flowchart illustrating an example of a processing procedure of the location
ステップS301において、位置情報管理サーバ300の位置情報管理部305は、画像処理サーバ100からの位置情報取得要求を受信する。位置情報取得要求には、投影用PC800の無線端末識別情報及び表示装置名が含まれている。
In step S <b> 301, the position
ステップS302において、位置情報管理部305は、位置情報記憶部302の位置情報管理テーブルから投影用PC800の位置情報を検索する。
In step S302, the position
ステップS303において、位置情報管理部305は、エリア情報記憶部303のエリア情報管理テーブルから投影用PC800が位置するエリアを特定し、エリアの位置情報を読み出す。具体的には、上記ステップS302で検索した投影用PC800の位置情報が含まれる、エリア情報管理テーブル(図12)の「エリア位置情報」に対応するエリアを特定する。そして、特定したエリアの「エリア位置情報」を読み出す。
In step S303, the position
ステップS304において、位置情報管理部305は、位置情報記憶部302の位置情報管理テーブルから上記ステップS303で読み出した「エリア位置情報」に含まれる無線端末識別情報を検索する。
In step S <b> 304, the location
ステップS305において、位置情報管理部305は、無線端末関連情報記憶部304の無線端末関連情報管理テーブルから、上記ステップS304で検索した無線端末識別情報に対応する位置管理対象カテゴリを特定する。なお、特定した結果、位置管理対象カテゴリに「表示装置」が複数存在した場合、位置情報取得要求に含まれていた「表示装置名」に対応する無線端末識別情報を、使用する表示装置700として特定する。
In step S305, the location
ステップS306において、位置情報管理部305は、画像処理サーバ100に対して、投影用PC800が位置したエリアに含まれる無線端末識別情報及び位置情報を含む位置情報取得要求応答を送信する。なお、位置情報取得要求応答に含まれる無線端末識別情報は、使用する表示装置700とそれ以外の位置管理対象とが区別可能なように位置管理対象カテゴリ(又は位置管理対象名称)が対応付けられている。
In step S306, the position
<ユーザ情報管理サーバ>
以下において説明するユーザ情報管理サーバ200が実行する処理は、図19に示したステップS207の処理に相当する。
<User information management server>
The process executed by the user
図21は、本発明の第1の実施形態の画像データ最適化処理におけるユーザ情報管理サーバ200の処理手順の一例を示すフローチャート図である。
FIG. 21 is a flowchart illustrating an example of a processing procedure of the user
ステップS401において、ユーザ情報管理サーバ200のユーザ情報管理部201は、画像処理サーバ100からのユーザ属性情報取得要求を受信する。ユーザ属性情報取得要求には、投影用PC800の位置するエリア内の無線端末識別情報が含まれている。
In step S <b> 401, the user
ステップS402において、ユーザ情報管理部201は、ユーザ所有端末情報記憶部202のユーザ所有端末情報管理テーブルから、ユーザ属性情報取得要求に含まれる無線端末識別情報に対応するユーザIDを特定する。
In step S <b> 402, the user
ステップS403において、ユーザ情報管理部201は、ユーザ属性情報記憶部203のユーザ属性情報管理テーブルから、上記ステップS402で特定したユーザIDに対応するユーザ属性情報(視覚特性、聴覚特性)を読み出す。
In step S403, the user
ステップS404において、ユーザ情報管理部201は、画像処理サーバ100に対して、無線端末識別情報が対応付けられたユーザ属性情報を送信する。
In step S <b> 404, the user
<画像処理サーバ>
図22は、本発明の第1の実施形態の画像データ最適化処理における画像処理サーバ100の処理手順の一例を示すフローチャート図である。
<Image processing server>
FIG. 22 is a flowchart illustrating an example of a processing procedure of the
ステップS501において、画像処理サーバ100の画像データ取得要求受付部101は、投影用PC800からの画像データ取得要求を受信する。なお、画像データ取得要求には、画像データID、投影用PC800の無線端末識別情報及び表示装置名が含まれている。
In step S <b> 501, the image data acquisition
ステップS502において、位置情報取得部102は、位置情報管理サーバ300から、投影用PC800が位置するエリア(会議室)内の表示装置700及び聴講者の無線端末識別情報と位置情報とを取得する。
In step S <b> 502, the position
ステップS503において、ユーザ情報取得部102は、ユーザ情報管理サーバ200から、上記ステップS502で取得した無線端末識別情報に対応付けられたユーザ属性情報を取得する。
In step S503, the user
ステップS504において、最適化部106は、上記ステップS502で取得した表示装置700及び聴講者の位置情報に基づき、表示装置700と聴講者との間の距離を算出する(図15参照)。
In step S504, the
ステップS505において、最適化部106は、表示態様情報記憶部105の表示態様情報管理テーブルから、上記ステップS503で取得したユーザ属性情報と上記ステップS504で算出した距離とに基づき、最適化する表示態様を決定する。なお、エリア内に複数の無線端末400(聴講者)が存在し、最適化する表示態様が複数ある場合、最も見やすい表示態様(例えば文字サイズが大きい)を、最適化する表示態様として決定する。
In step S505, the
ステップS506において、最適化部106は、画像データ記憶部104を参照し、上記ステップS501で受信した画像データ取得要求に含まれる画像データIDに対応する画像データを読み出す。
In step S506, the
ステップS507において、最適化部106は、上記ステップS505で決定した表示態様に基づき、上記ステップS506で読み出した画像データに含まれる表示態様が変更された画像データを生成する。なお、画像データが複数ページから構成される場合、1ページ毎に表示態様の最適化処理が実行される。
In step S507, the
ステップS508において、画像データ送信部107は、投影用PC800に対して、上記ステップS507で生成した、最適化された画像データを送信する。
In step S508, the image
上述したように、本発明の第1の実施形態の画像処理システム1によれば、位置情報管理サーバ300が無線端末400の位置情報を管理することで、無線端末400を所持するユーザ(聴講者)及び無線端末400が取り付けられた表示装置700、投影用PC800等の装置の位置情報を管理する。また、画像処理サーバ100は、位置情報管理サーバ300から、会議が行われるエリア(会議室)内の聴講者及び表示装置700の位置情報を取得する。そして、画像処理サーバ100は、会議室内の表示装置700と聴講者との距離と、聴講者のユーザ属性(視覚特性、聴覚特性)とに基づき、表示装置700に表示出力させる画像の表示態様を最適化できる。具体的には、画像処理サーバ100が、画像データに含まれる表示態様(文字サイズ等)を変更(拡大等)し、例えば文字サイズが拡大された画像データを生成する。そして、表示装置700は、表示態様が最適化されるように生成された画像データに基づく画像を表示出力する。
As described above, according to the
このように、会議等において表示装置700により表示出力された画像の文字サイズを、会議室内の聴講者の視力等の視覚特性によって、自動的に最適なサイズに調整することができる。発表者は、説明資料(画像)の拡大等を行う手間を省くことができる。
As described above, the character size of the image displayed and output by the
また、本発明の第1の実施形態における画像処理システム1によれば、画像処理サーバ100が実行する最適化処理は、例えば画像の文字のみが拡大された画像データを生成する。
Moreover, according to the
これにより、例えば、画像全体(例えば文字とグラフ(図形)とが含まれるような資料)を拡大すると、スクリーンやディスプレイからはみ出した画像の一部が見えなくなったり、拡大を必要としない図形部分まで拡大することで見えづらくなったりするのを回避できる。
〔第1の実施形態の変形例〕
本発明の第1の実施形態の変形例における画像処理システム1は、聴講者のユーザ属性情報の一つである聴覚特性に基づき、発表者の声等の音声の聞き取りが困難な場合、表示装置700に音声に対応する字幕を表示出力させる。
As a result, for example, if you enlarge the entire image (for example, a document that includes characters and graphs (graphics)), you may not be able to see part of the image that protrudes from the screen or display, You can avoid being difficult to see by enlarging.
[Modification of First Embodiment]
The
図23は、本発明の第1の実施形態の変形例における画像処理システム1のシステム構成の一例を示す図である。図23に示すように、図1に示した画像処理システム1から、ネットワークN2に接続される音声処理サーバ1100をさらに備える。
FIG. 23 is a diagram illustrating an example of a system configuration of the
音声処理サーバ1100は、マイク1000と接続され、発表者がマイクを用いて発する音声に基づき、字幕データを生成する機能を有する。なお、音声処理サーバ1100のハードウェア構成は、画像処理サーバ100と同じハードウェア構成(図3参照)であればよい。
The
図24は、本発明の第1の実施形態の変形例における画像処理システム1の動作手順の一例を示すシーケンス図である。なお、図24において、図19の本発明の第1の実施形態の画像処理システム1のシーケンス図に示した処理と同一の処理には同一のステップ番号を付与しており、これらの詳細な説明は省略する。
FIG. 24 is a sequence diagram illustrating an example of an operation procedure of the
変形例では、図19に示した処理に、ステップS215〜S219の処理が追加されている。 In the modification, the processes of steps S215 to S219 are added to the process shown in FIG.
ステップS215において、画像処理サーバ100は、上記ステップS208で取得したユーザ属性情報に含まれる聴覚特性(聴力)に基づき、字幕データの生成を行うか否かを判定する。具体的には、取得した聴覚特性の中に、音声の聞き取りが困難なことを示す情報が含まれている場合、字幕データの生成を行うと判定する。なお、この判定処理は、最適化部106により実行される。
In step S215, the
ステップS216において、画像処理サーバ100から音声処理サーバ1100に字幕データ取得要求が送信される。
In
ステップS217において、音声処理サーバ1100は、マイク1000が収集した音声に基づき、字幕データを生成する。なお、字幕データの生成は、一般的な音声認識機能及び音声テキスト変換機能を有するソフトウェアが用いられればよい。
In step S217, the
ステップS218において、音声処理サーバ1100から画像処理サーバ100に生成された字幕データを含む字幕データ取得要求応答が送信される。
In step S218, a caption data acquisition request response including the caption data generated from the
ステップS219において、画像処理サーバ100は、投影用PC800に対して、字幕データを送信する。以降、投影用PC800は、表示装置700に字幕データを表示出力させる。
In step S219, the
上述したように、第1の実施形態の変形例の画像処理システム1によれば、会議室内の聴講者の聴覚特性に基づき、発表者の音声をテキスト(字幕)に変換させた情報を、表示装置700に表示出力させることができる。
〔第2の実施形態〕
本発明の第2の実施形態における画像処理システム1は、ユーザ(聴講者)が所持するスマートフォン、タブレット又はラップトップPC等の表示端末の画面に表示される画像の表示態様を最適化する。
As described above, according to the
[Second Embodiment]
The
図25は、本発明の第2の実施形態における画像処理システム1のシステム構成の一例を示す図である。第1の実施形態の画像処理システム1のシステム構成(図1参照)との相違点は、第2の実施形態では、ユーザ(聴講者)により無線端末400が取り付けられた表示端末900が所持される点である。
FIG. 25 is a diagram illustrating an example of a system configuration of the
表示端末900は、無線ネットワークN3を介した無線LAN等の通信機能を備え、画像データに基づき画像を表示する電子機器である。表示端末900は、例えばスマートフォン、タブレット又はラップトップPC等である。なお、表示端末900は、表示装置700の一例である。
The
次に、第2の実施形態における画像データ最適化処理について説明する。なお、位置情報管理処理は、第1の実施形態の場合(図18参照)と同じである。 Next, image data optimization processing in the second embodiment will be described. The location information management process is the same as in the first embodiment (see FIG. 18).
図26は、本発明の第2の実施形態における画像データ最適化処理の動作手順の一例を示すシーケンス図である。なお、図26において、図19の本発明の第1の実施形態の画像処理システム1のシーケンス図に示した処理と同一の処理には同一のステップ番号を付与しており、これらの詳細な説明は省略する。
FIG. 26 is a sequence diagram illustrating an example of an operation procedure of image data optimization processing according to the second embodiment of the present invention. In FIG. 26, the same steps as those shown in the sequence diagram of the
ステップS208aにおいて、ユーザ情報管理サーバ200のユーザ情報管理部201は、ユーザ属性情報に加えて、ユーザ所有端末情報記憶部202のユーザ所有端末情報管理テーブル(図16参照)に記憶される聴講者が所持する表示端末900の「アドレス情報」を、画像処理サーバ100に送信する。
In step S208a, the user
ステップS211aにおいて、最適化部106部は、ユーザ毎のユーザ属性情報に基づき表示態様が最適化された画像データを生成する。
In step S211a, the
ステップS212aにおいて、画像データ送信部107は、上記ステップS208aで受信した表示端末900の「アドレス情報」を送信先アドレスに対して、上記ステップS211aでユーザ毎に生成された最適化された画像データを送信する。
In step S212a, the image
ステップS214aにおいて、表示端末900は、受信した画像データに基づき、ユーザ毎に最適化された画像データを表示出力する。
In step S214a, the
上述したように、第2の実施形態の画像処理システム1によれば、画像処理サーバ100は、各ユーザのユーザ属性情報(視覚特性、聴覚特性)に基づき表示態様が最適された画像データをユーザ毎に生成することができる。そして、画像処理サーバ100は、生成した最適化された画像データを、ユーザが所持する表示端末900毎に送信し、表示端末900はユーザ毎に最適化された画像データに基づく画像を表示出力できる。
As described above, according to the
したがって、ユーザは、各自に最適化された見やすい画像を、各自が所持する表示端末900を用いて閲覧できる。
〔第2の実施形態の変形例〕
本発明の第2の実施形態の変形例における画像処理システム1は、聴講者の視覚特性に基づき、例えば画像の視認が困難な場合、表示端末900に発表者の音声をテキスト化した音声議事録データを送信する。
Therefore, each user can browse an easy-to-view image optimized for each user using the
[Modification of Second Embodiment]
The
図27は、本発明の第2の実施形態の変形例における画像処理システム1のシステム構成の一例を示す図である。図27に示すように、図25に示した第2の実施形態の画像処理システム1から、ネットワークN2に接続される音声処理サーバ1100をさらに備える。
FIG. 27 is a diagram illustrating an example of a system configuration of the
音声処理サーバ1100は、マイク1000と接続され、発表者がマイクを用いて発する音声に基づき、音声議事録データを生成する機能を有する。
The
図28は、本発明の第2の実施形態の変形例における画像処理システム1の動作手順の一例を示すシーケンス図である。なお、図28において、図26の本発明の第2の実施形態の画像処理システム1のシーケンス図に示した処理と同一の処理には同一のステップ番号を付与しており、これらの詳細な説明は省略する。
FIG. 28 is a sequence diagram illustrating an example of an operation procedure of the
変形例では、図26に示した処理に、ステップS215a〜S220aの処理が追加されている。また、図28の例では、図26に示したステップS212〜S214の処理は省略している。 In the modification, the processes of steps S215a to S220a are added to the process shown in FIG. Further, in the example of FIG. 28, the processes of steps S212 to S214 shown in FIG. 26 are omitted.
ステップS215aにおいて、画像処理サーバ100は、上記ステップS208で取得したユーザ属性情報に含まれる視覚特性(視力)に基づき、音声議事録データの生成を行うか否かを判定する。具体的には、ユーザ毎の視覚特性が、画像の視認が困難なことを示す情報を含む場合、そのユーザのための音声議事録データの生成を行うと判定する。なお、この判定処理は、最適化部106により実行される。
In step S215a, the
ステップS216aにおいて、画像処理サーバ100から音声処理サーバ1100に音声議事録データ取得要求が送信される。
In step S216a, a voice minutes data acquisition request is transmitted from the
ステップS217aにおいて、音声処理サーバ1100は、マイク1000が収集した音声に基づき、音声議事録データを生成する。なお、音声議事録データの生成は、一般的な音声認識機能及び音声テキスト変換機能を有するソフトウェアが用いられればよい。
In step S217a, the
ステップS218aにおいて、音声処理サーバ1100から画像処理サーバ100に生成された音声議事録データを含む音声議事録データ取得要求応答が送信される。
In step S218a, a voice minutes data acquisition request response including the voice minutes data generated from the
ステップS219aにおいて、画像処理サーバ100は、上記ステップS215aにおいて音声議事録データの生成を要するユーザが所持する表示端末900に対して、音声議事録データを送信する。
In step S219a, the
ステップS220aにおいて、表示端末900は、音声議事録データを保存したり、再生したりする。
In step S220a, the
上述したように、第1の実施形態の変形例の画像処理システム1によれば、会議室内の聴講者の視覚特性に基づき、発表者の音声をテキスト(音声議事録)に変換させた情報を、表示端末900に送信することができる。
As described above, according to the
以上、本発明の実施形態について詳述したが、本発明はかかる特定の実施の形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications are possible within the scope of the gist of the present invention described in the claims. Can be changed.
1 画像処理システム
100 画像処理サーバ
101 画像データ取得要求受付部
102 位置情報取得部
103 ユーザ属性情報取得部
104 画像データ記憶部
105 表示態様情報記憶部
106 最適化部
107 画像データ送信部
200 ユーザ情報管理サーバ
201 ユーザ情報管理部
202 ユーザ所有端末情報記憶部
203 ユーザ属性情報記憶部
300 位置情報管理サーバ
301 位置情報受信部
302 位置情報記憶部
303 エリア情報記憶部
304 無線端末関連情報記憶部
305 位置情報管理部
400 無線端末
401 測位信号受信部
402 位置情報抽出部
403 無線端末識別情報格納部
404 位置情報送信部
500 配信装置
501 位置情報格納部
502 測位信号配信部
503 中継部
600 管理装置
601 変換部
700 表示装置
701 画像出力部
800 投影用PC
801 入力受付部
802 表示制御部
803 画像データ取得要求部
804 画像データ受信部
805 画像出力指示部
900 表示端末
DESCRIPTION OF
801
Claims (10)
前記表示装置及び該表示装置が位置する所定のエリア内のユーザの位置情報を取得する取得手段と、
前記ユーザ毎の視覚特性を記憶するユーザ特性記憶手段と、
前記画像データを、前記取得手段により取得された前記位置情報に基づき特定される前記表示装置と前記ユーザとの距離と、前記ユーザ特性記憶手段により記憶される前記ユーザの視覚特性とに基づく表示態様を有する画像データに最適化する最適化手段とを有する画像処理サーバ。 An image processing server that performs predetermined processing on image data provided to a display device that displays an image based on image data,
Acquisition means for acquiring position information of the user in a predetermined area where the display device and the display device are located;
User characteristic storage means for storing visual characteristics for each user;
A display mode in which the image data is displayed based on a distance between the display device specified based on the position information acquired by the acquisition unit and the user, and a visual characteristic of the user stored by the user characteristic storage unit. An image processing server having optimization means for optimizing the image data.
前記最適化手段は、前記表示態様記憶手段により記憶される表示態様のうち、前記取得手段により取得された位置情報に基づく距離と、前記ユーザ特性記憶手段により記憶される前記視覚特性とに対応する表示態様を有する画像データに最適化する請求項1記載の画像処理サーバ。 Display mode storage means for storing the display mode defined in association with the distance and the visual characteristic;
The optimization unit corresponds to the distance based on the position information acquired by the acquisition unit and the visual characteristic stored by the user characteristic storage unit among the display modes stored by the display mode storage unit. The image processing server according to claim 1, wherein the image processing server is optimized for image data having a display mode.
前記所定のエリア内に位置する一以上のユーザのそれぞれに対する前記表示態様のうち、最も見やすい表示態様を有する画像データに最適化する請求項1又は2記載の画像処理サーバ。 The optimization means includes
The image processing server according to claim 1, wherein the image processing server is optimized to image data having a display mode that is most easily visible among the display modes for each of the one or more users located in the predetermined area.
前記最適化手段は、前記表示端末を所持する、前記所定のエリア内に位置する一以上のユーザのそれぞれに対する前記表示態様を有する画像データに最適化し、
前記最適化手段により前記ユーザ毎に最適化された前記画像データを、該ユーザ毎の前記表示端末に送信する送信手段を有する請求項1又は2記載の画像処理サーバ。 The display device is a display terminal possessed for each user,
The optimization means optimizes the image data having the display mode for each of one or more users who are in the predetermined area and possess the display terminal,
The image processing server according to claim 1, further comprising: a transmission unit configured to transmit the image data optimized for each user by the optimization unit to the display terminal for each user.
前記画像データに含まれる文字のサイズである請求項1乃至4のいずれか一項に記載の画像処理サーバ。 The display mode is
The image processing server according to claim 1, wherein the image processing server has a character size included in the image data.
前記所定のエリア内のユーザの前記聴覚特性に基づき、前記所定のエリア内に設置されたマイクを介した音声に基づく字幕データを取得する字幕データ手段と、
前記字幕データ取得手段により取得された前記字幕データを、前記表示装置に表示させる字幕データ表示手段とを有する請求項1乃至5のいずれか一項に記載の画像処理サーバ。 The user characteristic storage means stores auditory characteristics for each user,
Subtitle data means for acquiring subtitle data based on sound via a microphone installed in the predetermined area based on the auditory characteristics of the user in the predetermined area;
6. The image processing server according to claim 1, further comprising: caption data display means for displaying the caption data acquired by the caption data acquisition means on the display device.
前記表示装置に取り付けられた無線端末及び前記ユーザに所持される無線端末の位置情報を取得する請求項1乃至6のいずれか一項に記載の画像処理サーバ。 The acquisition means includes
The image processing server according to claim 1, wherein position information of a wireless terminal attached to the display device and a wireless terminal possessed by the user is acquired.
前記表示装置及び該表示装置が位置する所定のエリア内のユーザの位置情報を取得する取得手段と、
前記ユーザ毎の視覚特性を記憶するユーザ特性記憶手段と、
前記画像データを、前記取得手段により取得された前記位置情報に基づき特定される前記表示装置と前記ユーザとの距離と、前記ユーザ特性記憶手段により記憶される前記ユーザの視覚特性とに基づく表示態様を有する画像データに最適化する最適化手段とを有する画像処理システム。 An image processing system including one or more information processing devices that perform predetermined processing on image data provided to a display device that displays an image based on image data,
Acquisition means for acquiring position information of the user in a predetermined area where the display device and the display device are located;
User characteristic storage means for storing visual characteristics for each user;
A display mode in which the image data is displayed based on a distance between the display device specified based on the position information acquired by the acquisition unit and the user, and a visual characteristic of the user stored by the user characteristic storage unit. An image processing system having optimization means for optimizing the image data.
前記画像処理サーバを、
前記表示装置及び該表示装置が位置する所定のエリア内のユーザの位置情報を取得する取得手段、
前記ユーザ毎の視覚特性を記憶するユーザ特性記憶手段、
前記画像データを、前記取得手段により取得された前記位置情報に基づき特定される前記表示装置と前記ユーザとの距離と、前記ユーザ特性記憶手段により記憶される前記ユーザの視覚特性とに基づく表示態様を有する画像データに最適化する最適化手段として機能させるプログラム。 A program executed by an image processing server that performs predetermined processing on image data provided to a display device that displays an image based on image data,
The image processing server;
Acquisition means for acquiring position information of the user in a predetermined area where the display device and the display device are located;
User characteristic storage means for storing visual characteristics for each user;
A display mode in which the image data is displayed based on a distance between the display device specified based on the position information acquired by the acquisition unit and the user, and a visual characteristic of the user stored by the user characteristic storage unit. A program that functions as an optimization means for optimizing image data having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013176907A JP6187037B2 (en) | 2013-08-28 | 2013-08-28 | Image processing server, image processing system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013176907A JP6187037B2 (en) | 2013-08-28 | 2013-08-28 | Image processing server, image processing system, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015046016A true JP2015046016A (en) | 2015-03-12 |
JP6187037B2 JP6187037B2 (en) | 2017-08-30 |
Family
ID=52671466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013176907A Expired - Fee Related JP6187037B2 (en) | 2013-08-28 | 2013-08-28 | Image processing server, image processing system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6187037B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018072617A (en) * | 2016-10-31 | 2018-05-10 | 大日本印刷株式会社 | Display control device, display system, display control method and computer program |
CN112860590A (en) * | 2019-11-28 | 2021-05-28 | 北京沃东天骏信息技术有限公司 | Picture analysis method and device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1141538A (en) * | 1997-07-17 | 1999-02-12 | Nec Home Electron Ltd | Voice recognition character display device |
JP2010262482A (en) * | 2009-05-07 | 2010-11-18 | Hitachi Ltd | System and device for distributing information |
US20110148931A1 (en) * | 2009-12-18 | 2011-06-23 | Samsung Electronics Co. Ltd. | Apparatus and method for controlling size of display data in portable terminal |
JP2011150705A (en) * | 2011-02-10 | 2011-08-04 | Necディスプレイソリューションズ株式会社 | Video display device with built in voice recognition function |
JP2011227150A (en) * | 2010-04-15 | 2011-11-10 | Sharp Corp | Display control device, display control system, and control method, control program and recording medium of display control device |
JP2012114630A (en) * | 2010-11-24 | 2012-06-14 | Funai Electric Co Ltd | Display device and television |
-
2013
- 2013-08-28 JP JP2013176907A patent/JP6187037B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1141538A (en) * | 1997-07-17 | 1999-02-12 | Nec Home Electron Ltd | Voice recognition character display device |
JP2010262482A (en) * | 2009-05-07 | 2010-11-18 | Hitachi Ltd | System and device for distributing information |
US20110148931A1 (en) * | 2009-12-18 | 2011-06-23 | Samsung Electronics Co. Ltd. | Apparatus and method for controlling size of display data in portable terminal |
JP2011227150A (en) * | 2010-04-15 | 2011-11-10 | Sharp Corp | Display control device, display control system, and control method, control program and recording medium of display control device |
JP2012114630A (en) * | 2010-11-24 | 2012-06-14 | Funai Electric Co Ltd | Display device and television |
JP2011150705A (en) * | 2011-02-10 | 2011-08-04 | Necディスプレイソリューションズ株式会社 | Video display device with built in voice recognition function |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018072617A (en) * | 2016-10-31 | 2018-05-10 | 大日本印刷株式会社 | Display control device, display system, display control method and computer program |
CN112860590A (en) * | 2019-11-28 | 2021-05-28 | 北京沃东天骏信息技术有限公司 | Picture analysis method and device |
Also Published As
Publication number | Publication date |
---|---|
JP6187037B2 (en) | 2017-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230037595A1 (en) | Image management system, image management method, and computer program product | |
US10021049B2 (en) | Cloud system and method of displaying, by cloud system, content | |
KR102343568B1 (en) | Method for connecting electronci device with external devices and elctroninc devcie implementing the same | |
US9002382B2 (en) | Method and apparatus for identifying neighboring device | |
US9256362B2 (en) | Network system, communication method and communication terminal | |
US10846804B2 (en) | Electronic business card exchange system and method using mobile terminal | |
US10002584B2 (en) | Information processing apparatus, information providing method, and information providing system | |
KR101731425B1 (en) | Cloud system and method for displaying contents thereof | |
US20160004723A1 (en) | Providing Geographically Relevant Information to Users | |
US9424361B2 (en) | Information communication method and information communication apparatus | |
JP2017033103A (en) | Digital signage control system, digital signage control system including the same, and product advertisement or service advertisement providing method using digital signage control systems | |
JP6187037B2 (en) | Image processing server, image processing system, and program | |
JPWO2018220939A1 (en) | Information providing system and information providing method | |
KR20150098741A (en) | Electronic device having communication unit and message communication method thereof | |
US10165019B2 (en) | Shared experience information construction system | |
EP3703352A1 (en) | Intermediary terminal, communication system, input system, intermediation control method, and carrier means | |
KR101337041B1 (en) | Control system for KIOSK | |
KR101108542B1 (en) | Mobile communication apparatus using augmented reality in mobile location and Controlling method of the same of | |
JP2005123940A (en) | Device, system, method and program for providing information | |
KR101465186B1 (en) | Method for data accessing among remote devices | |
US20180189687A1 (en) | Terminal apparatus, reservation server, and processing method of terminal apparatus | |
US20220276822A1 (en) | Information processing apparatus and information processing method | |
KR102328528B1 (en) | Managing method of memo based on user location and memo managing system thereof | |
TWI831768B (en) | Information providing system and information providing method | |
JP2014175794A (en) | Equipment control system and equipment control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170717 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6187037 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |