JP2019090943A - 情報処理装置およびプログラム - Google Patents

情報処理装置およびプログラム Download PDF

Info

Publication number
JP2019090943A
JP2019090943A JP2017220120A JP2017220120A JP2019090943A JP 2019090943 A JP2019090943 A JP 2019090943A JP 2017220120 A JP2017220120 A JP 2017220120A JP 2017220120 A JP2017220120 A JP 2017220120A JP 2019090943 A JP2019090943 A JP 2019090943A
Authority
JP
Japan
Prior art keywords
image
information
terminal
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017220120A
Other languages
English (en)
Other versions
JP7013808B2 (ja
Inventor
務 椎原
Tsutomu Shiihara
務 椎原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017220120A priority Critical patent/JP7013808B2/ja
Priority to US16/177,539 priority patent/US11442504B2/en
Publication of JP2019090943A publication Critical patent/JP2019090943A/ja
Application granted granted Critical
Publication of JP7013808B2 publication Critical patent/JP7013808B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/18Packaging or power distribution
    • G06F1/181Enclosures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Abstract

【課題】ユーザが携行する端末装置に対応する画像を、表示装置に表示しない場合に比べ、情報の提供先となる装置や、情報の提供元をより特定しやすくする。【解決手段】情報処理装置100は、表示装置200を備える。また、情報処理装置100は、ユーザが携行する端末装置300であって、情報処理装置100の周囲に位置する端末装置300を検知する検知手段を備える。さらに、情報処理装置100には、表示装置200における表示を制御する表示制御部が設けられている。表示制御部は、検知手段により検知された端末装置300に対応する画像である端末対応画像310を表示装置200に表示するとともに、端末装置300へ提供される情報に対応する画像である情報対応画像320を、表示装置200に表示する。【選択図】図7

Description

本発明は、情報処理装置およびプログラムに関する。
特許文献1には、通信相手装置が保有するコンテンツ情報を取得する受信データ処理部と、受信データ処理部が取得したコンテンツ情報を表示するための処理を行う表示処理部と、コンテンツ情報を表示する表示部と、を備える情報処理装置が開示されている。
特開2011−248767号公報
情報の提供先となる装置が、スマートフォンやタブレットなど、ユーザにより携帯される端末装置の場合、その設置位置が変動しやすく、また、ユーザの鞄やポケットなどに収容されることも多く、この場合、情報の提供先を特定しにくくなる。また、端末装置の携行者からの情報の提供にあたっても、この携行者の位置が変動することが多く、情報の提供元を特定しにくくなる。
本発明の目的は、ユーザが携行する端末装置に対応する画像を、表示装置に表示しない場合に比べ、情報の提供先となる装置や、情報の提供元をより特定しやすくすることにある。
請求項1に記載の発明は、表示装置と、ユーザが携行する端末装置であって周囲に位置する端末装置を検知する検知手段と、前記検知手段により検知された端末装置に対応する画像である端末対応画像を前記表示装置に表示するとともに、当該端末装置へ提供される情報に対応する画像である情報対応画像を、当該表示装置に表示する表示制御手段と、を備える情報処理装置である。
請求項2に記載の発明は、前記情報対応画像を前記端末対応画像に動かす操作に基づいて、当該端末対応画像に対応する端末装置に、当該情報対応画像に対応した情報が提供される請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記表示装置の表示画面が上方に向くように当該表示装置は設けられ、前記情報処理装置を上方から眺めた場合において、前記表示装置の前記表示画面の中央部から前記端末装置に向かう方向と、当該中央部から前記端末対応画像に向かう方向とが揃うように、当該端末対応画像が当該表示装置に表示される請求項1又は2に記載の情報処理装置である。
請求項4に記載の発明は、前記表示装置は、表示画面を有し、前記表示制御手段は、前記端末対応画像を、前記情報対応画像よりも、前記表示画面の周縁に近い側に表示する請求項1乃至3の何れかに記載の情報処理装置である。
請求項5に記載の発明は、前記表示制御手段は、前記表示画面の中央部に、前記情報対応画像を表示する請求項4に記載の情報処理装置である。
請求項6に記載の発明は、前記情報対応画像と前記端末対応画像とを対応付ける操作がなされた場合に、予め定められた処理を行う処理手段をさらに備える請求項1乃至5の何れかに記載の情報処理装置である。
請求項7に記載の発明は、前記処理手段は、前記情報対応画像の少なくとも一部と前記端末対応画像の少なくとも一部とを重ねる操作がなされた場合に、前記予め定められた処理を行う請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記処理手段は、前記情報対応画像および前記端末対応画像の少なくとも一方を他方に向けて移動させる操作がなされた場合に、前記予め定められた処理を行う請求項6に記載の情報処理装置である。
請求項9に記載の発明は、前記情報処理装置の周囲に位置するユーザの動きであって、当該情報処理装置の周方向における動きを検知する検知手段をさらに備え、前記表示制御手段は、前記情報処理装置の周囲に位置するユーザが前記周方向へ動いた場合に、前記表示装置における表示の内容を変更する請求項1乃至8の何れかに記載の情報処理装置である。
請求項10に記載の発明は、前記表示制御手段は、ユーザが前記周方向へ動いた場合、前記表示装置の表示画面に表示されている画像を、当該表示画面の周縁に沿って移動させる請求項9に記載の情報処理装置である。
請求項11に記載の発明は、前記情報処理装置は、柱状に形成され、一方の端部が床面側に設置され、他方の端部に、上方を向く前記表示装置が設置されている請求項1乃至10の何れかに記載の情報処理装置である。
請求項12に記載の発明は、前記情報処理装置は、断面形状が円形または楕円形に形成され、前記表示装置の表示画面は、円形又は楕円形に形成されている請求項11に記載の情報処理装置である。
請求項13に記載の発明は、前記表示制御手段は、前記情報処理装置の周囲に前記端末装置が複数位置する場合、前記表示装置に、各端末装置に対応する端末対応画像を表示する請求項1乃至12の何れかに記載の情報処理装置である。
請求項14に記載の発明は、前記表示装置の表示画面が上方に向くように当該表示装置は設けられ、前記情報処理装置を上方から眺めた場合において、前記表示装置の表示画面の中央部から前記端末装置に向かう方向と、当該中央部から、当該端末装置に対応する前記端末対応画像に向かう方向とが揃うように、当該端末対応画像の各々が当該表示装置に表示される請求項13に記載の情報処理装置である。
請求項15に記載の発明は、発光体をさらに備え、前記情報処理装置の周囲に位置するユーザについての情報を、前記発光体の色を変化させることで表示するユーザ情報表示手段を更に備える請求項1乃至14の何れかに記載の情報処理装置である。
請求項16に記載の発明は、表示装置と、ユーザが携行する端末装置であって周囲に位置する端末装置を検知する検知手段と、前記検知手段により検知された端末装置に対応する画像である端末対応画像を前記表示装置に表示するとともに、当該端末装置の携行者から提供される情報に対応する画像である情報対応画像を、当該表示装置に表示する表示制御手段と、を備える情報処理装置である。
請求項17に記載の発明は、前記表示制御手段は、前記端末対応画像と前記情報対応画像とを対応付けた状態で、当該端末対応画像および当該情報対応画像を前記表示装置に表示する請求項16に記載の情報処理装置である。
請求項18に記載の発明は、前記表示制御手段は、前記端末対応画像の少なくとも一部と前記情報対応画像の少なくとも一部とが重なる状態で、当該端末対応画像および当該情報対応画像を前記表示装置に表示する請求項17に記載の情報処理装置である。
請求項19に記載の発明は、前記表示制御手段は、対応付いた前記端末対応画像および前記情報対応画像を、前記表示装置の表示画面の中央部および周縁のうちの、当該周縁に近い側に表示する請求項17に記載の情報処理装置である。
請求項20に記載の発明は、前記表示制御手段は、前記端末装置の携行者から提供される前記情報が送信された場合に、前記情報対応画像を消去する請求項16乃至19の何れかに記載の情報処理装置である。
請求項21に記載の発明は、表示装置を備えた情報処理装置に設けられたコンピュータ装置にて実行可能なプログラムであり、前記情報処理装置の周囲に位置する端末装置に対応する画像である端末対応画像を前記表示装置に表示する機能と、前記端末装置へ提供される情報に対応する画像である情報対応画像を、前記表示装置に表示する機能と、をコンピュータ装置に実現するためのプログラムである。
請求項22に記載の発明は、表示装置を備えた情報処理装置に設けられたコンピュータ装置にて実行可能なプログラムであり、前記情報処理装置の周囲に位置する端末装置に対応する画像である端末対応画像を前記表示装置に表示する機能と、前記端末装置の携行者から提供される情報に対応する画像である情報対応画像を、前記表示装置に表示する機能と、をコンピュータに実現させるためのプログラムである。
請求項1の発明によれば、ユーザが携行する端末装置に対応する画像を、表示装置に表示しない場合に比べ、情報の提供先となる装置をより特定しやすくなる。
請求項2の発明によれば、情報対応画像を端末対応画像に動かす操作を行うことで、端末対応画像に対応する端末装置に、情報対応画像に対応した情報を提供できるようになる。
請求項3の発明によれば、表示画面の中央部から端末装置に向かう方向と、この中央部から端末対応画像に向かう方向とが揃わない場合に比べ、端末装置に対応する端末対応画像を把握しやすくなる。
請求項4の発明によれば、情報対応画像を表示画面の周縁側へ移動させることで、情報対応画像を、端末対応画像に近づけることができるようになる。
請求項5の発明によれば、表示画面の中央部以外の箇所に、情報対応画像が表示される場合に比べ、複数のユーザが、情報対応画像に対する操作を行う際の操作性を向上させることができる。
請求項6の発明によれば、対応付ける操作の有無に関わらず予め定められた処理が行われる場合に比べ、ユーザが意図していない処理が行われることをより確実に防止できる。
請求項7の発明によれば、情報表示画像の少なくとも一部と端末対応画像の少なくとも一部とを重ねる操作の有無に関わらず予め定められた処理が行われる場合に比べ、ユーザが意図していない処理が行われることをより確実に防止できる。
請求項8の発明によれば、情報対応画像および端末対応画像の少なくとも一方を他方に向けて移動させる操作の有無に関わらず予め定められた処理が行われる場合に比べ、ユーザが意図していない処理が行われることをより確実に防止できる。
請求項9の発明によれば、表示装置に対する操作を条件として表示の内容を変更する場合に比べ、表示の内容を変更する際のユーザの手間を低減できる。
請求項10の発明によれば、表示画面に表示されている画像を、表示画面の周縁から離れる方向へ移動させる場合に比べ、表示画面に表示されている画像に対する操作をユーザが行う際の操作性が低下することを抑制できる。
請求項11の発明によれば、表示装置が側方を向いている場合に比べ、情報処理装置の周囲からの表示装置へのアクセスを行いやすいものにできる。
請求項12の発明によれば、情報処理装置の断面形状、表示画面の形状が、円形や楕円形以外の形状である場合に比べ、情報処理装置の周囲からの表示装置へのアクセスを行いやすいものにできる。
請求項13の発明によれば、複数のユーザの各々が有する端末装置に対応する端末対応像を、表示装置に表示することができる。
請求項14の発明によれば、表示画面の中央部から端末装置に向かう方向と、この中央部から端末対応画像に向かう方向とが揃わない場合に比べ、端末装置に対応する端末対応画像を把握しやすくなる。
請求項15の発明によれば、情報処理装置の周囲に位置するユーザについての情報を文字情報で表示する場合に比べ、情報処理装置の周囲に位置するユーザについての情報を直観的に把握しやすくなる。
請求項16の発明によれば、ユーザが携行する端末装置に対応する画像を、表示装置に表示しない場合に比べ、情報の提供元をより特定しやすくなる。
請求項17の発明によれば、端末対応画像と情報対応画像とを対応付けない状態で、端末対応画像および情報対応画像を表示する場合に比べ、端末対応画像に対応している情報対応画像がより明確となる。
請求項18の発明によれば、端末対応画像と情報対応画像とを離間した状態で表示する場合に比べ、端末対応画像に対応している情報対応画像がより明確となる。
請求項19の発明によれば、対応付いた端末対応画像および情報対応画像を、表示画面の中央部に近い側に表示する場合に比べ、対応付いた端末対応画像および情報対応画像を、表示画面の中央部に向けて移動させる操作をより行いやすいものにできる。
請求項20の発明によれば、情報対応画像を消去しない場合に比べ、端末装置の携行者から提供される情報が送信されたことがより明確となる。
請求項21の発明によれば、ユーザが携行する端末装置に対応する画像を、表示装置に表示しない場合に比べ、情報の提供先となる装置をより特定しやすくなる。
請求項22の発明によれば、ユーザが携行する端末装置に対応する画像を、表示装置に表示しない場合に比べ、情報の提供元をより特定しやすくなる。
(A)、(B)は、情報処理装置を説明する図である。 情報処理装置のハードウエアの構成を示した図である。 情報処理装置のCPU等により実現される各機能部を示した図である。 情報処理装置の周囲に位置するユーザが動いた際の表示画面を説明する図である。 (A)〜(E)は、表示装置における他の表示例を示した図である。 情報処理装置の他の動作状態を示した図である。 表示画面の他の表示例を示した図である。 (A)、(B)は、表示画面の動きを説明する図である。 表示画面の動きを説明する図である。 (A)、(B)は、端末装置から情報処理装置へ情報送信(情報提供)を行う場合における表示画面を示した図である。
以下、添付図面を参照して、本発明の実施の形態について説明する。
図1(A)、(B)は、本実施形態に係る情報処理装置100を説明する図である。図1(A)は、情報処理装置100の斜視図であり、図1(B)は、情報処理装置100の上面図である。
図1(B)に示すように、本実施形態の情報処理装置100は、柱状に形成され、上下方向に沿うように設けられている。具体的には、一方の端部100Aが、床面側に設置され、他方の端部100Bに、上方を向く表示装置200が設置されている。
ここで、「柱状」とは、一端を始点として一方向に向かって延びる形状をいう。
柱状には、筒状および中実状の両者が含まれる。また、柱状には、内部に空洞がある形状も含まれる。また、柱状には、円盤形状など、径方向における寸法よりも軸方向における寸法の方が小さい形状も含まれる。
情報処理装置100の設置場所は、特に制限されるものではないが、例えば、企業内の共有スペースや、会議室等に設置される。また、その他に、駅などの公共の施設に置かれる場合もある。
また、この情報処理装置100は、インターネットなどの通信回線を通じて外部サーバ(不図示)に接続され、この外部サーバとの間で情報の送受信を行う。この情報処理装置100は、エッジサーバとしての役割も有する。
図1(B)に示すように、情報処理装置100は、情報処理装置100の軸方向に直交する面における断面形状が、円形となるように形成されている。さらに、情報処理装置100の上部に、表示装置200が設置され、表示装置200の表示画面210は、円形となっている(図1(A)も参照)。
なお、情報処理装置100の断面形状は、円形に限らず、楕円形としてもよい。また、その他に、四角形、五角形など、多角形状としてもよい。さらに、これらの形状に該当しない異形形状としてもよい。
また、情報処理装置100の断面形状は、情報処理装置100の軸方向における位置に応じて異ならせてよく、例えば、床面側を四角形状とし、上部側を円形としてもよい。
また、その他に、例えば、上部に表示装置200を設け、表示装置200の下部に、下方に向かって延びる脚部を備えた構成としてもよい。
また、表示装置200の表示画面210も、円形に限らず、楕円形や、四角形などの多角形状としてもよい。
また、図1(B)に示すように、情報処理装置100には、円柱状の装置本体110、この装置本体110の外周面に取り付けられた複数の外装部材120が設けられている。
外装部材120は、四角形状で形成され、また、対角線が上下方向および水平方向に沿うように設置されている。また、互いに隣接する外装部材120の間には、隙間Gが設けられている。
図2は、情報処理装置100のハードウエアの構成を示した図である。
図2に示すように、情報処理装置100は、CPU(Central Processing Unit)201、RAM(Random Access Memory)202、ROM(Read Only Memory)203、磁気記憶装置204を備える。さらに、情報処理装置100は、外部との通信を行うための通信装置(通信I/F)205を備える。
通信装置205は、外部サーバとの間で通信を行う。また、通信装置205は、後述する端末装置との間で通信を行う。ここで、通信装置205は、無線通信方式を用いて、この端末装置との通信を行う。無線通信方式としては、Wi−Fi(登録商標)(Wireless Fidelity)、Bluetooth(登録商標)、ZigBee(登録商標)、UWB(Ultra Wideband)等の既存の方式を用いてよい。
ROM203、磁気記憶装置204は、CPU201により実行されるプログラムを記憶する。CPU201は、ROM203や磁気記憶装置204に記憶されているプログラムを読み出し、RAM202を作業エリアにしてプログラムを実行する。
CPU201により、ROM203や磁気記憶装置204に格納されたプログラムが実行されることで、後述する各機能部が実現される。
ここで、CPU201によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記憶した状態で、情報処理装置100へ提供しうる。また、CPU201によって実行されるプログラムは、インターネットなどの通信手段を用いて情報処理装置100へダウンロードしてもよい。
さらに、情報処理装置100には、表示装置200、LEDなどにより構成される発光体206、人感センサ207、カメラ208、映像を投影する投影装置209が設けられている。
表示装置200は、例えば、タッチパネル方式のディスプレイにより構成され、ユーザへの情報の表示を行うとともに、ユーザからの操作を受け付ける。
発光体206は、LED(light emitting diode)などの光源と、この光源の点灯制御を行う制御基板とにより構成される。
人感センサ207は、例えば、赤外線センサなどにより構成され、情報処理装置100の周囲に位置するユーザを検知する。
撮像装置の一例としてのカメラ208は、CCDイメージセンサなどを含んで構成され、情報処理装置100の周囲の状況を撮影する。
投影装置209は、いわゆるプロジェクターであり、情報処理装置100の周囲に位置する壁や床面に対して、画像の投影を行う。
図3は、情報処理装置100のCPU201等により実現される各機能部を示した図である。CPU201により、ROM203や磁気記憶装置204に格納されたプログラムが実行されることで、図3にて示す各機能部が実現される。
本実施形態の情報処理装置100には、図3に示すように、端末検知部251、表示制御部252、処理部253、動き検知部254、ユーザ情報表示部255が設けられている。
検知手段の一例としての端末検知部251は、通信装置205にて受信される情報を解析して(端末装置から発信される、端末装置であることを示す情報を受信して)、情報処理装置100の周囲に端末装置があることを検知する。
表示制御手段の一例としての表示制御部252は、表示装置200の表示制御を行う。
処理手段の一例としての処理部253は、表示装置200に対するユーザ操作があった場合に、このユーザ操作に予め対応付けられている処理を実行する。
検知手段の一例としての動き検知部254は、カメラ208から出力されてくる映像を解析して、情報処理装置100の周囲に位置するユーザの動きを検知する。
ユーザ情報表示手段の一例としてのユーザ情報表示部255は、発光体206の色を変化させることで、情報処理装置100の周囲に位置するユーザについての情報を表示する。
図1(A)、(B)を再度参照し、情報処理装置100についてさらに説明する。
上記のとおり(図1(B)に示すように)、本実施形態では、互いに隣り合う外装部材120の間に、隙間Gが設けられている。そして、本実施形態では、この隙間Gに、上記にて説明した、発光体206、人感センサ207、カメラ208、投影装置209が設けられている。
より具体的には、一の外装部材120が有する角部と、この一の外装部材120の隣に位置する他の外装部材120が有する角部との間に(図中、符号1Bで示す部分などに)、発光体206、人感センサ207、カメラ208、投影装置209が設けられている。
発光体206、人感センサ207、カメラ208、投影装置209は、1箇所だけではなく、情報処理装置100の周方向における位置が互いに異なる複数箇所に設置されている。
本実施形態では、人感センサ207が設けられており、情報処理装置100にユーザが近づくと、このユーザが検知される。より具体的には、情報処理装置100からの距離が例えば5mとなる範囲内に(情報処理装置100からの距離が予め定められた距離となる範囲内に)、ユーザが入ると、このユーザは、人感センサ207により検知される。
さらに、本実施形態では、カメラ208により得られた情報をもとに、処理部253によって、このユーザの顔認証が行われ、このユーザが特定される。そして、本実施形態では、図1(A)に示すように、表示装置200に、このユーザに対応した表示が行われる。なお、表示装置200における表示に加え、又は、表示装置200における表示に替えて、投影装置209を用いて壁や床面への表示を行ってもよい。
この例では、「Hanako」というユーザが認識された場合を例示しており、この「Hanako」というユーザに対応した画像が、表示画面210に表示される。
具体的には、この表示画面210では、ユーザによる選択が行われる複数の選択用画像(選択用ボタン)271が表示される。ユーザが、この選択用画像271の何れか押圧して選択すると、処理部253が、メール送信や、情報表示など、選択用画像271に対応付けられた処理を実行する。なお、本実施形態では、ユーザの操作を、タッチパネルである表示画面210にて受け付けたが、その他に、例えば、床の振動を検知するセンサを設け、ユーザが足で床をタップ等する動作を検出して、ユーザの操作を検出するようにしてもよい。
また、本実施形態では、カメラ208によりユーザの認証(特定)を行ったが、ユーザの認証は、他の方法により行ってもよい。
例えば、ユーザが携行する端末装置(後述)から情報を得て、ユーザの認証を行ってもよい。また、例えば、ユーザが有するIDカードの情報をカードリーダで読み取って、ユーザの認証を行ってもよい。
図4は、情報処理装置100の周囲に位置するユーザが動いた際の表示画面210を説明する図である。
本実施形態では、情報処理装置100の周囲にいるユーザが、情報処理装置100の周方向へ移動すると、移動するこのユーザの動きが、動き検知部254(図3参照)により検知される。
より具体的には、動き検知部254は、複数設けられたカメラ208から出力された映像を解析して、ユーザの動き(情報処理装置100の周方向へ移動する動き)を検知する。
そして、本実施形態では、動き検知部254によりユーザの動きが検知された場合、表示制御部252が、表示装置200における表示の内容を変更する。
具体的には、表示制御部252は、ユーザが周方向へ動いた場合、表示装置200に表示されている画像(選択用画像271)を、表示画面210の周縁211に沿って移動させる。
選択用画像271の移動にあたり、本実施形態では、ユーザが移動する方向と同方向に、選択用画像271を移動させる。この例では、反時計回り方向へユーザが移動する場合を例示しており、選択用画像271も、反時計回り方向へ移動する。
さらに、本実施形態では、選択用画像271が1つ分移動すると、移動方向における最下流に位置する1つの選択用画像271が消え、移動方向における最上流に位置する箇所に、新たな選択用画像271が表示される。
言い換えると、本実施形態では、選択用画像271の総数よりも少ない数の選択用画像271が表示されており、ユーザが移動した場合には、一部の選択用画像271が消去され、他の選択用画像271が新たに表示される。
なお、上記では、ユーザが移動する方向と同方向に、選択用画像271を移動させたが、ユーザが移動する方向とは逆方向に、選択用画像271を移動させてもよい。
図5(A)〜(E)は、表示装置200における他の表示例を示した図である。
本実施形態では、複数のユーザの特定を行えるようになっており、情報処理装置100の周囲に複数のユーザがいる場合には、この複数のユーザに対応した表示画面210となる。
具体的には、本実施形態では、情報処理装置100の周囲に位置するユーザが1人である場合には、図5(A)に示す表示となるが、情報処理装置100の周囲に位置するユーザが、例えば2人となると、図5(B)に示す表示となる。
図5(B)にて示す表示画面210では、ユーザAが位置する側に(ユーザAに近い側に)、ユーザAに対応した選択用画像271が表示され、ユーザBが位置する側に(ユーザBに近い側に)、ユーザBに対応した選択用画像271が表示される。
さらに、ユーザAに対応した選択用画像271と、ユーザBに対応した選択用画像271との間に、両者の間を横切る仕切り線213が表示される。
言い換えると、本実施形態では、ユーザの各々に対応して表示される対応画像の一例である選択用画像271は、この選択用画像271に対応するユーザが立っている側に寄せられて表示される。さらに、各ユーザに対応して表示された選択用画像271の間に、一のユーザ側に位置する領域と、他のユーザ側に位置する領域とを仕切る仕切り線213が表示される。
これにより、一のユーザが、他のユーザのために表示された選択用画像271を選択することが起きにくくなる。
図5(C)では、ユーザA、ユーザB、ユーザCの3名が、情報処理装置100の周囲に位置する場合の表示画面210を示している。
この場合も、上記と同様、ユーザの各々に対応して表示される選択用画像271は、この選択用画像271に対応するユーザが立っている側に寄せられて表示される。さらに、互いに隣り合うユーザの各々に対応して表示された選択用画像271の間に、上記と同様、仕切り線213が表示されている。
さらに、本実施形態では、図5(D)の矢印5Aで示すように、一のユーザに対応した一の領域から、他のユーザに対応した他の領域に、一の領域内に位置する選択用画像271を移動させられるようになっている。これにより、例えば、一のユーザが有するファイル(情報)が、他のユーザに提供されるようになる。
また、図5(E)に示す例では、表示画面210の中央部に、円形の仕切り線213により囲まれた円形の領域214が設けられている。
言い換えると、この例では、表示画面210の中央部に、複数のユーザにより共有される共有領域が設けられている。ここで、この共有領域は、選択用画像271が表示されない領域となっている。
図5(E)に示す例では、各ユーザは、自身の領域内に位置する選択用画像271を、共有領域に移動させられるようになっており、選択用画像271を、共有領域に移動させると、この選択用画像271が、共有領域に表示される。
そして、本実施形態では、他のユーザが、この共有領域から、自身の領域に、選択用画像271を移動させることで、この他のユーザが、この選択用画像271に対応した情報を得られるようになる。
図6は、情報処理装置100の他の動作状態を示した図である。
本実施形態では、上記のとおり、外装部材120と外装部材120との間に、発光体206が設けられている。さらに、この発光体206は、複数設けられるとともに、情報処理装置100の周方向における位置が互いに異なるように配置されている。
本実施形態では、情報処理装置100の周囲に位置するユーザについての情報を、発光体206の色を変化させることで表示する。
具体的には、ユーザ情報表示部255(図3参照)が、発光体206の各々の制御を行い、情報処理装置100の周囲に位置するユーザについての情報を表示する。
より具体的には、ユーザ情報表示部255は、カメラ208(図6では不図示)から出力される情報を解析する。より具体的には、カメラ208により得られる映像のうちの、ユーザの顔を撮影している部分を解析し、各ユーザの表情を分析する。
そして、ユーザ情報表示部255は、この分析の結果をもとに、ユーザの感情を把握する。より具体的には、カメラ208から得られた表情の特徴量を算出し、この特徴量に基づき、ユーザの感情を把握する。
そして、ユーザ情報表示部255は、把握したこの感情をもとに、発光体206の色を変更する。具体的には、例えば、感情が落ち着いている場合には、緑や青の光が発光されるようにし、感情が乱れている場合には、黄や赤の光が発光されるようにする。
これにより、本実施形態では、情報処理装置100の外周部を参照することで、情報処理装置100の周囲に位置するユーザの状態の把握を行える。
なお、本実施形態では、ユーザについての情報として、ユーザの感情についての情報を表示する場合を説明したが、これは一例であり、その他に、例えば、ユーザの体温などを検出し、ユーザの健康状態についての情報を表示するようにしてもよい。
ここで、発光体206を発光させるにあたっては、各ユーザの対向位置に位置する発光体206を発光させる。
言い換えると、情報処理装置100を上方から眺めた場合において、表示画面210の中央部Cからユーザに向かう方向(例えば、符号6Aで示す方向)と、この中央部Cから、このユーザの感情を表す発光体206に向かう方向(例えば、符号6Bで示す方向)とが一致するように、発光体206を発行させる。言い換えると、情報処理装置100の軸心と、ユーザとを結ぶ線上に位置する発光体206を発行させる。
また、本実施形態では、表示画面210にも、各発光体206の発光状態を表示する。これにより、情報処理装置100の周囲の雰囲気の確認を、俯瞰的に行える。
ここで、表示画面210における、各発光体206の発光状態の表示は、発光体206に対応する画像を、この発光体206に対応したユーザが位置する側に寄せて表示する。
また、表示画面210上では、発光体206に対応する画像を、情報処理装置100から各ユーザまでの距離を考慮して表示する。
具体的には、例えば、情報処理装置100から遠い場所に位置するユーザに対応する画像(発光体206を表す画像)ほど、表示画面210の周縁211に近い箇所に表示し、情報処理装置100に近い場所に位置するユーザに対応する画像(発光体206を表す画像)は、表示画面210の中央部Cに近い側に表示する。
図7は、表示画面210の他の表示例を示した図である。この図7では、ユーザが、端末装置300を携行している場合の表示例を示している。
ここで、端末装置300は、コンピュータ装置により構成される。具体的には、端末装置300は、例えば、スマートフォン、タブレット、PC(Personal Computer)などにより構成される。端末装置300の各々は、無線通信方式を用いて、情報処理装置100との通信を行う。無線通信方式としては、Wi−Fi(登録商標)(Wireless Fidelity)、Bluetooth(登録商標)、ZigBee(登録商標)、UWB(Ultra Wideband)等の既存の方式を用いてよい。
本実施形態では、ユーザが、端末装置300を有している場合、端末検知部251によりこの端末装置300が検知され、次いで、表示制御部252が、この端末装置300に対応した画像である端末対応画像310を表示する。
この例では、3人のユーザ(不図示)が、情報処理装置100の周囲に位置し、各ユーザが、端末装置300を携行している場合を例示している。この場合、3つの端末対応画像310が表示される。
言い換えると、この例では、情報処理装置100の周囲に、端末装置300が複数存在しており、表示制御部252は、表示装置200に、各端末装置300に対応する端末対応画像310を表示する。これにより、表示装置200には、複数の端末対応画像310が表示されることになる。
さらに、この例では、端末装置300へ情報が提供される場合を例示しており、表示制御部252は、表示装置200に、端末装置300へ提供される情報に対応する画像である情報対応画像320を表示する。
より具体的には、表示制御部252は、表示画面210の中央部Cに、情報対応画像320を表示する。
ここで、「表示画面210の中央部C」とは、表示画面210が円形の場合、表示画面210の径方向における中心部を指し、表示画面210が楕円形の場合、長軸と短軸とが交わる箇所を指す。また、表示画面210が四角形の場合、対角線同士が交わる箇所をさす。言い換えると、表示画面210の中央部Cとは、表示画面210の重心位置を指す。
また、「中央部Cに情報対応画像320を表示する」とは、情報対応画像320の外周縁321よりも内側にこの中央部Cが位置するように、情報対応画像320を表示することをいう。言い換えると、情報対応画像320の少なくとも一部が、中央部Cに位置するように、情報対応画像320を表示することをいう。
また、図7に示すように、本実施形態では、端末対応画像310の表示にあたっては、情報対応画像320よりも、表示画面210の周縁211に近い側に、端末対応画像310を表示する。
言い換えると、表示画面210の中央部C側ではなく、ユーザが立っている側に、端末対応画像310を表示する。付言すると、本実施形態では、端末対応画像310は、表示画面210の中央部Cには表示しない。
さらに、本実施形態では、表示画面210の中央部Cから各端末装置300に向かう方向(例えば、矢印7Aで示す方向)と、表示画面210の中央部Cから端末対応画像310に向かう方向(例えば、矢印7Bで示す方向)とが揃うように、端末対応画像310が表示装置200に表示される。
より具体的には、図7は、情報処理装置100および端末装置300を上方から眺めた状態を示しており、この状態において、表示画面210の中央部Cから各端末装置300に向かう方向と、表示画面210の中央部Cから端末対応画像310に向かう方向とが揃うように、端末対応画像310が表示される。
言い換えると、本実施形態では、情報処理装置100の周方向における端末装置300の位置と、情報処理装置100の周方向における端末対応画像310の位置とが一致するように、端末対応画像310が表示装置200に表示される。
ここで、本実施形態では、端末装置300の位置(情報処理装置100の周方向における位置)は、この端末装置300を携行しているユーザの位置に基づき把握する。
具体的には、本実施形態では、カメラ208により得られた情報をもとに、処理部253によって、このユーザの顔認証が行われ、このユーザが特定され、さらに、このユーザの位置が把握される。
そして、情報処理装置100は、位置を把握したこのユーザがいる位置に、このユーザに対して予め対応付けて登録されている端末装置300が位置すると判断する。付言すると、本実施形態では、ユーザについての情報と端末装置300についての情報とが予め対応付けられた状態で情報処理装置100や外部サーバ等に登録されており、本実施形態では、ユーザの位置を把握し、把握したこのユーザの位置に、端末装置300が位置すると判断する。
ここで、上記「揃う」や、上記「一致」とは、表示画面210の中央部Cから各端末装置300に向かう方向と、中央部Cから端末対応画像310に向かう方向とのなす角度が、0°であるものに限定されず、20°未満の角度を有するものを意味する。
図8(A)、(B)、図9は、表示画面210の動きを説明する図である。なお、図8、図9では、情報処理装置100の周囲に位置する端末装置300が1つの場合の表示例を示している。
本実施形態の表示装置200は、上記のとおり、タッチパネル方式の表示装置200となっており、表示画面210に指を押し当てることで、情報対応画像320(図8(A)参照)の選択を行える。
さらに、本実施形態では、図8(A)の矢印8Aで示すように、情報対応画像320の選択を行ったこの指を端末対応画像310に向けて移動させることで、情報対応画像320を端末対応画像310に向けて移動させられる。
そして、本実施形態では、情報対応画像320が端末対応画像310まで移動し、情報対応画像320の少なくとも一部と端末対応画像310の少なくとも一部とが重なるようになると、表示画面210が、図8(B)に示す表示画面210に切り替わる。
言い換えると、本実施形態では、ユーザによって、情報対応画像320と端末対応画像310とを対応付ける操作が行われると、予め定められた処理の一例である切り替え処理が行われて、表示画面210が、図8(B)に示す表示画面210に切り替わる。
ここで、図8にて示すこの表示例では、端末対応画像310は、人(人の顔)を模した画像となっており、情報対応画像320と端末対応画像310とを対応付ける操作が行われると、図8(B)に示すように、端末対応画像310により表されている人の上に、情報対応画像320が載るようになる。言い換えると、情報対応画像320と端末対応画像310とを対応付ける操作が行われると、端末対応画像310が変化する。
これにより、本実施形態では、情報処理装置100から端末装置300へ情報が送信されることが、より明確にユーザに伝わるようになる。
ここで、情報対応画像320と端末対応画像310とを「対応付ける操作」とは、情報対応画像320と端末対応画像310との間に関連性があることが分かるような表示にするための操作をいい、この「対応付ける操作」としては、上記のように、情報対応画像320と端末対応画像310とを重ねる操作が、一例として挙げられる。
その他に、例えば、情報対応画像320および端末対応画像310の少なくとも一方を他方に向けて移動させる操作も、「対応付ける操作」と言える。言い換えると、情報対応画像320と端末対応画像310との離間距離を小さくする操作も、「対応付ける操作」と言える。
また、例えば、情報対応画像320および端末対応画像310の一方から他方に向けて指を移動させて、両者を結ぶ線分を表示画面210上に表示する操作や、情報対応画像320および端末対応画像310の両者を選択して、両者の色を、例えば赤色にするなど、同色とする操作も、「対応付ける操作」といえる。
また、例えば、情報対応画像320および端末対応画像310の両者を囲むように指を移動させて、両者を囲む線を表示画面210上に表示する操作も、「対応付ける操作」といえる。
その後(図8(B)に示す状態となった後)、本実施形態では、情報処理装置100から端末装置300へ予め定められた信号が送信される。
具体的には、端末対応画像310に情報対応画像320が重ねられると、Bluetoothなどの通信方式が用いられて、情報処理装置100から端末装置300へ予め定められた信号が送信される。
そして、この信号を受信した端末装置300は、例えば、情報処理装置100からの情報を受信してもよいかの問い合わせをユーザ(端末装置300の携行者)に対して行う。
そして、受信してもよいとの返答があった場合、この返答結果が、情報処理装置100に送信される。そして、返答結果を受信した情報処理装置100は、情報対応画像320に対応した情報を、Wi−Fiなどの通信方式を用いて、端末装置300に送信する。
このように、本実施形態では、情報対応画像320を端末対応画像310に動かす操作に基づいて、端末対応画像310に対応する端末装置300に、情報対応画像320に対応した情報が提供される。
なお、本実施形態では、端末装置300にてユーザへの問い合わせを行い、受信してもよいとの返答があった場合に、端末装置300へ情報を送信する場合を一例に説明したが、端末装置300でのユーザへの問い合わせは省略してもよい。
この場合は、端末対応画像310に情報対応画像320が重ねられる操作があると、上記問い合わせをせずに、情報処理装置100から端末装置300への情報送信が行われる。
その後(端末装置300への情報送信が完了すると)、本実施形態では、図9に示すように、端末対応画像310が、元の状態に戻る。
具体的には、端末対応画像310に重なった状態で表示されていた情報対応画像320が、表示画面210の中央部Cに戻るようになる。言い換えると、情報対応画像320と端末対応画像310とが対応付けられていない状態に戻る。
なお、本実施形態では、情報対応画像320を端末対応画像310に向けて移動させると、表示画面210の中央部Cには、情報対応画像320が一時的に存在しなくなる表示例を説明した(図8(B)参照)。
これは一例であり、情報対応画像320を端末対応画像310に向けて移動させる場合、情報対応画像320を複製したものが、端末対応画像310に向けて移動するようにしてもよい。即ち、表示画面210の中央部Cに、情報対応画像320が依然として残る表示形態としてもよい。
この場合、一のユーザが、情報対応画像320を移動させている最中に、他のユーザも、自身の端末対応画像310に向けての情報対応画像320の移動を行える。
また、上記では、ユーザの各々が、自身に対応した端末対応画像310に向けて、情報対応画像320を移動させる場合を説明したが、例えば、一人の専任の担当者が、情報対応画像320を、複数の端末対応画像310の各々に向けて移動させるようにしてもよい。言い換えると、一人の専任の担当者が、情報対応画像320を、複数の端末対応画像310の各々に配布するようにしてもよい。
また、上記では、情報対応画像320を端末対応画像310に向けて移動させた場合に、情報送信が行われる場合を説明したが、端末対応画像310を情報対応画像320に向けて移動させることで、情報送信が行われるようにしてもよい。
また、端末対応画像310および情報対応画像320の両者を互いに接近させることで、情報送信が行われるようにしてもよい。
また、その他に、例えば、情報対応画像320および端末対応画像310の少なくとも一方に対するフリック操作(一方を他方に向けて移動させる操作)が行われたら、情報の送信が行われるようにしてもよい。
また、その他に、表示画面210の中央部C側に、端末対応画像310を表示し、表示画面210の周縁211側に、情報対応画像320を表示し、情報対応画像320を、中央部C側に移動させるようにしてもよい。また、これとは逆に、中央部C側に位置する端末対応画像310を、周縁211側に移動させるようにしてもよい。また、このように一方のみを移動させるのではなく、両者を移動させるようにしてもよい。
また、例えば、表示画面210が四角形である場合には、表示画面210の左側に、情報対応画像320を表示し、右側に位置する端末対応画像310に向けてこの情報対応画像320を移動させる構成としてもよい。
また、その他に、例えば、表示画面210が四角形である場合には、表示画面210の上側に、情報対応画像320を表示し、下側に位置する端末対応画像310に向けてこの情報対応画像320を移動させる構成としてもよい。
図10(A)、(B)は、端末装置300から情報処理装置100へ情報送信(情報提供)を行う場合における表示画面210を示した図である。
端末装置300から情報処理装置100への情報の送信にあたっては、まず、ユーザが自身の端末装置300を操作して、情報送信のためのアプリケーションを起動する。これにより、図10(A)に示すように、端末装置300の表示画面300Aには、複数の、画像データや文書データなどのデータ(ファイル)350が表示される。
そして、ユーザは、例えば、端末装置300の表示画面300Aに対する操作を行い、送信を行うデータ350の選択を行う。そして、ユーザは、送信ボタン360を押圧する。
これにより、Wi−Fiなどの通信方式が用いられて、端末装置300から情報処理装置100への情報送信が行われる。
そして、本実施形態では、端末装置300から情報処理装置100への情報送信が行われると、図10(B)に示すように、情報処理装置100の表示画面210に、端末対応画像310が表示され、さらに、端末装置300から送信された情報(端末装置300の携行者から提供された情報)に対応する画像である情報対応画像320が表示される。
具体的には、本実施形態では、表示画面210の当初の状態は、図10(A)に示すように、端末対応画像310のみが表示された状態であったが、端末装置300から情報処理装置100への情報送信が行われると、図10(B)に示すように、情報対応画像320も表示される。
ここで、図10(B)に示す表示画面210では、端末対応画像310と情報対応画像320とが対応付いた状態で、端末対応画像310および情報対応画像320が表示される。
具体的には、図10(B)に示す表示画面210では、端末対応画像310の少なくとも一部と情報対応画像320の少なくとも一部とが重なる状態で、端末対応画像310および情報対応画像320が表示される。
より具体的には、この例でも、端末対応画像310は、人(人の顔)を模した画像となっており、図10(B)に示す表示画面210では、端末対応画像310により表されている人の上に、情報対応画像320が載るようになる。
ここで、図10(B)に示す表示画面210では、端末対応画像310および情報対応画像320(端末対応画像310と情報対応画像320とが重なった画像(以下、「重なり画像380」と称する)は、表示画面210の中央部Cおよび周縁211のうちの、周縁211に近い側に表示される。
また、上記の「端末対応画像310と情報対応画像320とが対応付いた状態で表示」とは、情報対応画像320と端末対応画像310との間に関連性があることが分かるように表示することをいい、情報対応画像320と端末対応画像310とを重ねて表示するものに限られない。
例えば、情報対応画像320と端末対応画像310とが、離間しているが、互いに接近して配置されている場合も、「対応付いた状態で表示」と言える。
また、例えば、情報対応画像320および端末対応画像310の両者を結ぶ線分が表示されている状態や、情報対応画像320および端末対応画像310が、同色で表示されている場合も、「対応付いた状態で表示」と言える。
また、例えば、情報対応画像320と端末対応画像310とが横並びや縦並びで配置されている場合も、「対応付いた状態で表示」と言える。さらに、例えば、情報対応画像320および端末対応画像310の両者を囲む線(枠)が表示されている場合も、「対応付いた状態で表示」と言える。
その後(図10(B)の表示がなされた後)、本実施形態では、重なり画像380がユーザにより選択され(ユーザの指により押圧されることで選択され)、さらに、この指が表示画面210に中央部Cに向けて移動される(矢印10Aで示す方向に向けて移動される)。これにより、重なり画像380が、表示画面210の中央部Cまで移動する。
ここで、本実施形態では、ユーザによる重なり画像380の操作がなされる前、図10(B)に示すように、表示画面210の中央部Cに、他の画像を表示しないようにしており、表示画面210の中央部Cに向けて移動される重なり画像380の移動先を確保している。
そして、本実施形態では、重なり画像380が、表示画面210の中央部Cまで移動すると、端末装置300から情報処理装置100への情報送信が確定する。
その後、本実施形態では、表示制御部252が、情報対応画像320(端末対応画像310の上に重なって表示されていた情報対応画像320)を消去するとともに、端末対応画像310を、当初の位置に戻す。即ち、表示画面210の周縁211に近い側へ移動させる。これにより、表示装置200の表示画面210は、図10(A)にて示した状態に戻る。
なお、表示画面210の中央部Cには、重なり画像380の移動先を示す画像をさらに表示してもよい。重なり画像380の移動先を示す画像としては、例えば、情報処理装置100に対応した画像(情報処理装置100を表す画像)が挙げられる。
また、重なり画像380の移動先を示す画像としては、例えば、表示画面210の中央部Cに向かう矢印が、一例として挙げられる。
さらに、重なり画像380の移動先を示す画像としては、「表示画面210の中央部Cまで移動してください」などの、文字画像も一例として挙げられる。
また、上記では、重なり画像380を、表示画面210の周縁211側に位置させ、表示画面210の中央部Cに向けて、重なり画像380を移動させる場合を一例に説明したが、これは一例である。
その他に、例えば、表示画面210が四角形である場合には、表示画面210の左側に、重なり画像380を表示し、右側に向けて重なり画像380を移動させる構成としてもよい。また、その他に、例えば、表示画面210が四角形である場合には、表示画面210の下側に、重なり画像380を表示し、上側に向けて重なり画像380を移動させる構成としてもよい。
(その他)
上記では、端末対応画像310、情報対応画像320を表示するとともに、これらの画像の一方又は両方を移動させることで、情報の送信処理等が行われる場合を説明したが、端末対応画像310および情報対応画像320の移動が伴わない場合でも、送信処理等が行われるようしてもよい。
例えば、表示画面210上に、送信ボタンなど、送信処理等を実行するための操作受け付け部を表示し、この操作受け付け部に対するユーザからの操作があった場合に、送信処理等などの予め定められた処理が行われるようにしてもよい。
また、上記では、タッチパネル方式の表示装置200にて、ユーザの操作を受け付けたが、ユーザの操作の受け付けは、マウスやポイントティングデバイスなどの装置を設置し、この装置を介して、ユーザからの操作を受け付けるようにしてもよい。
100…情報処理装置、100A…端部、100B…端部、200…表示装置、206…発光体、210…表示画面、211…周縁、251…端末検知部、252…表示制御部、254…動き検知部、255…ユーザ情報表示部、271…選択用画像、300…端末装置、310…端末対応画像、320…情報対応画像、380…重なり画像、C…中央部

Claims (22)

  1. 表示装置と、
    ユーザが携行する端末装置であって周囲に位置する端末装置を検知する検知手段と、
    前記検知手段により検知された端末装置に対応する画像である端末対応画像を前記表示装置に表示するとともに、当該端末装置へ提供される情報に対応する画像である情報対応画像を、当該表示装置に表示する表示制御手段と、
    を備える情報処理装置。
  2. 前記情報対応画像を前記端末対応画像に動かす操作に基づいて、当該端末対応画像に対応する端末装置に、当該情報対応画像に対応した情報が提供される請求項1に記載の情報処理装置。
  3. 前記表示装置の表示画面が上方に向くように当該表示装置は設けられ、
    前記情報処理装置を上方から眺めた場合において、
    前記表示装置の前記表示画面の中央部から前記端末装置に向かう方向と、当該中央部から前記端末対応画像に向かう方向とが揃うように、当該端末対応画像が当該表示装置に表示される請求項1又は2に記載の情報処理装置。
  4. 前記表示装置は、表示画面を有し、
    前記表示制御手段は、前記端末対応画像を、前記情報対応画像よりも、前記表示画面の周縁に近い側に表示する請求項1乃至3の何れかに記載の情報処理装置。
  5. 前記表示制御手段は、前記表示画面の中央部に、前記情報対応画像を表示する請求項4に記載の情報処理装置。
  6. 前記情報対応画像と前記端末対応画像とを対応付ける操作がなされた場合に、予め定められた処理を行う処理手段をさらに備える請求項1乃至5の何れかに記載の情報処理装置。
  7. 前記処理手段は、前記情報対応画像の少なくとも一部と前記端末対応画像の少なくとも一部とを重ねる操作がなされた場合に、前記予め定められた処理を行う請求項6に記載の情報処理装置。
  8. 前記処理手段は、前記情報対応画像および前記端末対応画像の少なくとも一方を他方に向けて移動させる操作がなされた場合に、前記予め定められた処理を行う請求項6に記載の情報処理装置。
  9. 前記情報処理装置の周囲に位置するユーザの動きであって、当該情報処理装置の周方向における動きを検知する検知手段をさらに備え、
    前記表示制御手段は、前記情報処理装置の周囲に位置するユーザが前記周方向へ動いた場合に、前記表示装置における表示の内容を変更する請求項1乃至8の何れかに記載の情報処理装置。
  10. 前記表示制御手段は、ユーザが前記周方向へ動いた場合、前記表示装置の表示画面に表示されている画像を、当該表示画面の周縁に沿って移動させる請求項9に記載の情報処理装置。
  11. 前記情報処理装置は、柱状に形成され、一方の端部が床面側に設置され、他方の端部に、上方を向く前記表示装置が設置されている請求項1乃至10の何れかに記載の情報処理装置。
  12. 前記情報処理装置は、断面形状が円形または楕円形に形成され、前記表示装置の表示画面は、円形又は楕円形に形成されている請求項11に記載の情報処理装置。
  13. 前記表示制御手段は、前記情報処理装置の周囲に前記端末装置が複数位置する場合、前記表示装置に、各端末装置に対応する端末対応画像を表示する請求項1乃至12の何れかに記載の情報処理装置。
  14. 前記表示装置の表示画面が上方に向くように当該表示装置は設けられ、
    前記情報処理装置を上方から眺めた場合において、
    前記表示装置の表示画面の中央部から前記端末装置に向かう方向と、当該中央部から、当該端末装置に対応する前記端末対応画像に向かう方向とが揃うように、当該端末対応画像の各々が当該表示装置に表示される請求項13に記載の情報処理装置。
  15. 発光体をさらに備え、
    前記情報処理装置の周囲に位置するユーザについての情報を、前記発光体の色を変化させることで表示するユーザ情報表示手段を更に備える請求項1乃至14の何れかに記載の情報処理装置。
  16. 表示装置と、
    ユーザが携行する端末装置であって周囲に位置する端末装置を検知する検知手段と、
    前記検知手段により検知された端末装置に対応する画像である端末対応画像を前記表示装置に表示するとともに、当該端末装置の携行者から提供される情報に対応する画像である情報対応画像を、当該表示装置に表示する表示制御手段と、
    を備える情報処理装置。
  17. 前記表示制御手段は、前記端末対応画像と前記情報対応画像とを対応付けた状態で、当該端末対応画像および当該情報対応画像を前記表示装置に表示する請求項16に記載の情報処理装置。
  18. 前記表示制御手段は、前記端末対応画像の少なくとも一部と前記情報対応画像の少なくとも一部とが重なる状態で、当該端末対応画像および当該情報対応画像を前記表示装置に表示する請求項17に記載の情報処理装置。
  19. 前記表示制御手段は、対応付いた前記端末対応画像および前記情報対応画像を、前記表示装置の表示画面の中央部および周縁のうちの、当該周縁に近い側に表示する請求項17に記載の情報処理装置。
  20. 前記表示制御手段は、前記端末装置の携行者から提供される前記情報が送信された場合に、前記情報対応画像を消去する請求項16乃至19の何れかに記載の情報処理装置。
  21. 表示装置を備えた情報処理装置に設けられたコンピュータ装置にて実行可能なプログラムであり、
    前記情報処理装置の周囲に位置する端末装置に対応する画像である端末対応画像を前記表示装置に表示する機能と、
    前記端末装置へ提供される情報に対応する画像である情報対応画像を、前記表示装置に表示する機能と、
    をコンピュータ装置に実現するためのプログラム。
  22. 表示装置を備えた情報処理装置に設けられたコンピュータ装置にて実行可能なプログラムであり、
    前記情報処理装置の周囲に位置する端末装置に対応する画像である端末対応画像を前記表示装置に表示する機能と、
    前記端末装置の携行者から提供される情報に対応する画像である情報対応画像を、前記表示装置に表示する機能と、
    をコンピュータに実現させるためのプログラム。
JP2017220120A 2017-11-15 2017-11-15 情報処理装置およびプログラム Active JP7013808B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017220120A JP7013808B2 (ja) 2017-11-15 2017-11-15 情報処理装置およびプログラム
US16/177,539 US11442504B2 (en) 2017-11-15 2018-11-01 Information processing apparatus and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220120A JP7013808B2 (ja) 2017-11-15 2017-11-15 情報処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2019090943A true JP2019090943A (ja) 2019-06-13
JP7013808B2 JP7013808B2 (ja) 2022-02-01

Family

ID=66432768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220120A Active JP7013808B2 (ja) 2017-11-15 2017-11-15 情報処理装置およびプログラム

Country Status (2)

Country Link
US (1) US11442504B2 (ja)
JP (1) JP7013808B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7013808B2 (ja) * 2017-11-15 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248767A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム
JP2013003742A (ja) * 2011-06-14 2013-01-07 Sharp Corp データ送信操作機器、および、データ送信制御方法
US20130162566A1 (en) * 2011-12-21 2013-06-27 Sony Mobile Communications Japan, Inc. Terminal device
JP2013145451A (ja) * 2012-01-13 2013-07-25 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP2013205945A (ja) * 2012-03-27 2013-10-07 Sharp Corp データ送信操作機器、および、データ送信制御方法
JP2016051468A (ja) * 2014-08-29 2016-04-11 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム
JP6101393B1 (ja) * 2016-08-28 2017-03-22 功 藤野 情報処理装置、制御方法およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5520258A (en) 1978-07-28 1980-02-13 Matsushita Electric Ind Co Ltd Liquid phase epitaxial growing method and device
KR101626621B1 (ko) * 2009-12-30 2016-06-01 엘지전자 주식회사 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기
US20140071159A1 (en) * 2012-09-13 2014-03-13 Ati Technologies, Ulc Method and Apparatus For Providing a User Interface For a File System
JP6271960B2 (ja) * 2012-11-26 2018-01-31 キヤノン株式会社 情報処理システム
JP5854237B2 (ja) * 2013-04-30 2016-02-09 コニカミノルタ株式会社 画像処理システム、画像処理装置、携帯情報端末およびプログラム
JP2015070426A (ja) * 2013-09-27 2015-04-13 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2015090593A (ja) * 2013-11-06 2015-05-11 ソニー株式会社 情報処理装置、情報処理方法および情報処理システム
KR102206953B1 (ko) * 2013-12-09 2021-01-25 엘지전자 주식회사 음향 출력 장치
CN105980962B (zh) * 2014-02-17 2019-07-23 索尼公司 信息处理设备和信息处理方法
JP2015172653A (ja) * 2014-03-12 2015-10-01 ソニー株式会社 表示装置および表示方法
US9667784B2 (en) * 2014-04-30 2017-05-30 Xiaomi Inc. Methods and devices for providing information in voice service
US10228766B2 (en) * 2014-09-12 2019-03-12 Microsoft Technology Licensing, Llc Enhanced Display Rotation
JP6412778B2 (ja) * 2014-11-19 2018-10-24 東芝映像ソリューション株式会社 映像装置、方法、およびプログラム
US10185363B2 (en) * 2014-11-28 2019-01-22 Semiconductor Energy Laboratory Co., Ltd. Electronic device
JP7013808B2 (ja) * 2017-11-15 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム
US10855974B2 (en) * 2018-01-17 2020-12-01 Massachusetts Institute Of Technology Methods and apparatus for radial automultiscopic display

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248767A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム
JP2013003742A (ja) * 2011-06-14 2013-01-07 Sharp Corp データ送信操作機器、および、データ送信制御方法
US20130162566A1 (en) * 2011-12-21 2013-06-27 Sony Mobile Communications Japan, Inc. Terminal device
JP2013145451A (ja) * 2012-01-13 2013-07-25 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP2013205945A (ja) * 2012-03-27 2013-10-07 Sharp Corp データ送信操作機器、および、データ送信制御方法
JP2016051468A (ja) * 2014-08-29 2016-04-11 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム
JP6101393B1 (ja) * 2016-08-28 2017-03-22 功 藤野 情報処理装置、制御方法およびプログラム

Also Published As

Publication number Publication date
US11442504B2 (en) 2022-09-13
JP7013808B2 (ja) 2022-02-01
US20190146555A1 (en) 2019-05-16

Similar Documents

Publication Publication Date Title
US10762876B2 (en) Information processing apparatus and control method
US9804733B2 (en) Dynamic cursor focus in a multi-display information handling system environment
US9690400B2 (en) Information handling system interactive totems
US11106314B2 (en) Continuous calibration of an information handling system projected user interface
JP6092485B2 (ja) 情報処理装置
US9753591B2 (en) Capacitive mat information handling system display and totem interactions
US9983717B2 (en) Disambiguation of false touch inputs at an information handling system projected user interface
US9720446B2 (en) Information handling system projected work space calibration
US11243640B2 (en) Information handling system modular capacitive mat with extension coupling devices
US10139854B2 (en) Dynamic display resolution management for an immersed information handling system environment
US20170038912A1 (en) Information providing device
JP2012160175A (ja) インタラクティブプレゼンシステム
US11373650B2 (en) Information processing device and information processing method
US9791979B2 (en) Managing inputs at an information handling system by adaptive infrared illumination and detection
JP6422118B2 (ja) 表示システム、情報処理装置、及び表示方法
US9921644B2 (en) Information handling system non-linear user interface
US9804718B2 (en) Context based peripheral management for interacting with an information handling system
JP6253128B2 (ja) 表示システム、入力装置、表示装置、及び表示方法
US9720550B2 (en) Adaptable input active zones at an information handling system projected user interface
KR102333931B1 (ko) 영상 투사 장치 및 그의 동작 방법
JP2019090943A (ja) 情報処理装置およびプログラム
JP2009015720A (ja) 認識装置および認識方法
US20180024696A1 (en) Image projection apparatus and operation method thereof
WO2015182059A1 (ja) 情報処理システム、制御方法およびプログラム記憶媒体
JP2013134549A (ja) データ入力装置およびデータ入力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220103