JPH09251441A - Cooperative work control device and method therefor - Google Patents

Cooperative work control device and method therefor

Info

Publication number
JPH09251441A
JPH09251441A JP5979196A JP5979196A JPH09251441A JP H09251441 A JPH09251441 A JP H09251441A JP 5979196 A JP5979196 A JP 5979196A JP 5979196 A JP5979196 A JP 5979196A JP H09251441 A JPH09251441 A JP H09251441A
Authority
JP
Japan
Prior art keywords
information
unit
work
input
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5979196A
Other languages
Japanese (ja)
Other versions
JP3540494B2 (en
Inventor
Hisashi Kazama
久 風間
Kazuhiro Fukui
和広 福井
Osamu Yamaguchi
修 山口
Kaoru Suzuki
薫 鈴木
Eiji Tanaka
英治 田中
Takahiro Taniguchi
恭弘 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP05979196A priority Critical patent/JP3540494B2/en
Publication of JPH09251441A publication Critical patent/JPH09251441A/en
Application granted granted Critical
Publication of JP3540494B2 publication Critical patent/JP3540494B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To surely and easily control even a time schedule without compelling each member of the cooperative work to do a special job. SOLUTION: This device is provided with an image input part 10b which photographs an ambient situation including the persons related to the group work and inputs these photographed images, a situation information conversion part 10c which generates the situation information showing the states of persons included in the images based on the images inputted from the part 10c, a situation information communication part 12 which transmits and receives the situation information, and an applied service offer part 14 which decides the persons who can join in the group work among those persons related to the work based on the situation information generated by the part 10c and produces the messages of the participant persons of the work to offer these messages to one of information processors via a communication part.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、計算機ネットワー
クが整備されたオフィス環境等において利用されるもの
で、協同作業、例えば会議などの運営を支援する協同作
業調整装置及び協同作業調整方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a collaborative work adjusting device and a collaborative work adjusting method which are used in an office environment or the like in which a computer network is provided and which support a collaborative work, for example, a conference operation.

【0002】[0002]

【従来の技術】近年、オフィス環境には計算機ネットワ
ーク環境が整備され、一人に一台の計算機システムを保
有することは当り前になった。また、マルチメディア環
境も急速に発展している。一方、各種システムはますま
す複雑化、増大化しており、こうしたシステムを開発す
る場合など、個人作業でなく協同作業を必要とする状況
はますます増加している。
2. Description of the Related Art In recent years, a computer network environment has been established in an office environment, and it has become commonplace for one person to have one computer system. Also, the multimedia environment is developing rapidly. On the other hand, various types of systems are becoming more and more complicated and increasing, and the number of situations requiring collaborative work rather than individual work is increasing more and more when developing such systems.

【0003】協同作業、特に会議などの重要性はますま
す増加しており、またネットワーク環境の整備やマルチ
メディア環境が発達してきていることから、ネットワー
クを介したマルチメディア会議(離れた場所どうしで画
像や音声をやりとりして行なう会議)なども行なわれる
ようになって来ている。
The importance of collaborative work, especially conferences, etc. is increasing more and more, and since the network environment and the multimedia environment are being developed, multimedia conferences via networks (where remote locations are Meetings such as exchanging images and sounds) are now being held.

【0004】しかしながら、その会議の日程や時間を決
める段階では、発起人が会議に出席すべき各メンバ(協
同作業の参加者)に、電話なり手紙なりで各人のスケジ
ュールを聞き出して調整すると言った、昔ながらの作業
方法がしばしばとられている。この作業によって会議に
出席すべき全員を招集するためには、一旦全員のスケジ
ュールを確実に聞き出し、日程と時間を決めた上で、再
度全員に伝達事項(日程、時間等)を確実に伝えなけれ
ばならない。すなわち、全員との間で、情報をやりとり
をする必要が少なくとも2回発生するために、大きな作
業負担となっており、特に会議の出席者が多くなると膨
大な作業量となってしまう。
However, at the stage of deciding the schedule and time of the conference, the promoter said that each member (participant of the collaborative work) who should attend the conference should hear and adjust the schedule of each person by telephone or letter. , Old-fashioned working methods are often used. In order to convene all the people who should attend the meeting by this work, make sure to hear the schedules of all the members once, decide the schedule and time, and surely convey the communication items (schedule, time, etc.) to everyone again. I have to. That is, since it is necessary to exchange information with all the members at least twice, it is a heavy work load, and especially when the number of attendees of the conference is large, the work amount becomes enormous.

【0005】伝達事項を全員に確実に伝える方法として
は、ページャ等の各メンバが携帯する通信機器へメッセ
ージを送信すれば良いため比較的作業負担は軽い。従っ
て、作業負担を軽減するためには、いかに全員の予定を
把握し、会議を開催する日程と時間を適切に設定するか
という点にかかっている。
As a method of surely transmitting the transmitted matter to all members, it is only necessary to send a message to a communication device carried by each member such as a pager, so that the work load is relatively light. Therefore, in order to reduce the work load, it depends on how to grasp the schedules of all members and to appropriately set the schedule and time for holding the meeting.

【0006】従来、会議出席者全員の予定を把握し、会
議を開催する日程と時間を適切に設定する方法として、
計算機ネットワークが整ったオフィス環境等において、
各メンバが自己のスケジュールを計算機に入力し、その
データを元にスケジュール自動調整装置が会議の開催時
間を決める方法が提唱されている(例えば:”松下温、
岡田謙一:コラボレーションとコミュニケーション(共
立出版)(1995)”のグループ電子手帳(Team
Desk))。この方法であれば、電話や手紙などを用
いて会議出席者のスケジュールを収集する必要がないた
め作業負担は軽減される。
Conventionally, as a method of grasping the schedules of all the attendees of a conference and appropriately setting the schedule and time for holding the conference,
In an office environment with a computer network,
A method has been proposed in which each member inputs his or her own schedule into a computer, and an automatic schedule adjustment device determines the holding time of the meeting based on the data (eg: "Matsushita Atsushi,
Kenichi Okada: Collaboration and Communication (Kyoritsu Shuppan) (1995) ”Group Electronic Notebook (Team)
Desk)). With this method, it is not necessary to collect the schedule of the attendees of the conference by using a telephone, a letter, or the like, and the work load is reduced.

【0007】しかし、各自が自己のスケジュールを計算
機に入力するのは、日付レベルでの予定の登録までが限
界であって、その日の細かい時間的スケジュールを予め
入力する事は、(1)手間がかかり煩わしい、(2)仕
事の進み具合により予定は頻繁に変更されるので真のス
ケジュールを入力することは実際上不可能、(3)計算
機に入力したスケジュールの修正が遅れてしまうと多忙
であるにも関わらず強制的に呼出しを受ける場合があ
る、などの問題がある。
However, each person inputs his or her own schedule into the computer only up to the registration of the schedule at the date level, and it is (1) laborious to input a detailed time schedule of the day in advance. It is cumbersome, (2) it is impossible to enter a true schedule because the schedule is frequently changed depending on the progress of work, and (3) it is too busy to correct the schedule entered in the computer. However, there are problems such as being forced to receive calls.

【0008】しかし、協同作業を行なう当日においてス
ケジュール調整を行なう場合、すなわち協同作業を行な
う時間(特に開始時間)を決定するためには、各メンバ
の時間的仕事状況が把握できなければ、調整することは
不可能である。
However, in the case of adjusting the schedule on the day when the cooperative work is performed, that is, in order to determine the time (particularly the start time) for performing the cooperative work, if the temporal work status of each member cannot be grasped, the adjustment is made. Is impossible.

【0009】[0009]

【発明が解決しようとする課題】このように従来では、
会議等の協同作業を行なう時間を調整する場合には、協
同作業の参加者のスケジュールを、電話や手紙等を用い
て収集し、それに基づいて日程と時間を決定した上で、
伝達事項を参加者全員に通知していたために作業負担が
大きかった。
As described above, conventionally,
When adjusting the time for conducting collaborative work such as meetings, the schedule of participants in the collaborative work is collected using telephone, letters, etc., and the schedule and time are decided based on that.
Since the participants were notified of the matters to be communicated, the work load was heavy.

【0010】また、計算機ネットワークが整ったオフィ
ス環境等において、協同作業の参加者のそれぞれに自己
のスケジュールを入力させることで、スケジュール自動
調整装置によって自動的に各参加者のスケジュールを収
集して調整を行なう方法もあるが、参加者に各自のスケ
ジュールを入力する作業を強いるものであるため、日付
レベルでの予定の登録までが限界であって、日程的なス
ケジュールの調整を行なう事はできても、時間的なスケ
ジュールの調整を行なうことが困難となっていた。
Further, in an office environment or the like where a computer network is set up, each participant of the collaborative work is allowed to input his or her own schedule, and the schedule automatic adjusting device automatically collects and adjusts the schedule of each participant. There is also a method to do this, but it will force the participants to enter their own schedule, so there is a limit to the registration of the schedule at the date level, and it is not possible to adjust the schedule on a schedule. However, it was difficult to adjust the time schedule.

【0011】本発明は前記のような事情を考慮してなさ
れたもので、協同作業の参加者に特別な作業を強いるこ
となく、時間的なスケジュールまでを確実かつ容易に調
整することが可能な協同作業調整装置及び協同作業調整
方法を提供することを目的とする。
The present invention has been made in consideration of the above circumstances, and it is possible to surely and easily adjust the time schedule without forcing the participants of the cooperative work to perform a special work. An object is to provide a cooperative work adjusting device and a cooperative work adjusting method.

【0012】[0012]

【課題を解決するための手段】本発明に係る協同作業調
整装置は、協同作業に関係する人物を含む周囲の状況を
撮影して画像を入力するための画像入力手段を有する複
数の情報処理装置と、前記複数の情報処理装置の間で相
互に情報の送受信を行なう通信手段とを有し、前記情報
処理装置は、前記画像入力手段によって入力された画像
をもとに、画像中に含まれる人物の状況を表わす状況情
報を生成し、前記通信手段を介して他の情報処理装置に
送信する状況情報変換手段と、何れかの情報処理装置に
おける前記状況情報変換手段によって生成された状況情
報を前記通信手段を介して受信し、前記状況情報に応じ
て協同作業に関係する人物の中で協同作業に参加可能な
人物を決定し、前記参加可能な人物に対するメッセージ
を生成して前記通信手段を介して何れかの情報処理装置
に提供する応用サービス提供手段とを具備したことを特
徴とする。
A collaborative work adjustment apparatus according to the present invention has a plurality of information processing apparatuses having image input means for photographing a surrounding situation including a person involved in the collaborative work and inputting an image. And a communication unit that transmits and receives information to and from the plurality of information processing apparatuses, and the information processing apparatus is included in the image based on the image input by the image input unit. A situation information conversion unit that generates situation information representing a situation of a person and transmits the situation information to another information processing device via the communication unit, and a situation information generated by the situation information conversion unit in any one of the information processing devices. Received via the communication means, determine a person who can participate in the collaborative work among the persons related to the collaborative work according to the status information, generate a message for the person who can participate in the collaborative work, and generate the message. Characterized by comprising the application service providing means for providing to one of the information processing apparatus via the means.

【0013】これにより、画像入力手段から入力された
画像情報から得られる現在の状況を表わす状況情報に基
づいて、協同作業の開始時間等の調整を行ない、適切な
タイミングで適切な情報を通知することができる。
Thus, the start time of the cooperative work is adjusted based on the status information indicating the current status obtained from the image information input from the image input means, and the appropriate information is notified at an appropriate timing. be able to.

【0014】また、前記応用サービス提供手段は、前記
状況情報変換手段によって生成され前記通信手段を介し
て送信される状況情報から、協同作業に関係する人物に
ついての状況情報を受信して蓄積する状況情報参照手段
と、協同作業の依頼入力と、入力された依頼に応じた協
同作業の調整結果についての応答出力を行なうアプリケ
ーション入出力手段と、前記アプリケーション入出力手
段によって入力された依頼に応じて、前記状況情報参照
手段に蓄積された状況情報を用いて協同作業の調整を行
なうアプリケーション制御手段と、前記アプリケーショ
ン制御手段による協同作業の調整結果に応じて、協同作
業に関係する人物に対してメッセージを通知するアクシ
ョン作成手段とを具備したことを特徴とする。
A situation in which the applied service providing means receives and accumulates situation information about a person involved in cooperative work from the situation information generated by the situation information converting means and transmitted through the communication means. Information reference means, request input for cooperative work, application input / output means for outputting a response regarding the adjustment result of cooperative work according to the input request, and according to the request input by the application input / output means, A message is sent to a person related to the collaborative work according to the application control means for adjusting the collaborative work using the situation information accumulated in the situation information reference means, and the result of the collaborative work adjustment by the application control means. It is characterized by comprising an action creating means for notifying.

【0015】これにより、協同作業の参加者ではない第
3者(グループ外の人)から、グループに協同作業の依
頼をする場合に、アプリケーション入出力手段を用いる
ことで協同作業の調整できる。
Thus, when a third party (a person outside the group) who is not a participant in the collaborative work requests the group for the collaborative work, the cooperative work can be adjusted by using the application input / output means.

【0016】また前記アプリケーション制御手段は、前
記アプリケーション入出力手段によって入力された協同
作業の依頼に含まれる協同作業条件を記憶するための協
同作業情報記憶手段と、前記協同作業情報記憶手段に記
憶された協同作業条件に基づいて、協同作業の関係者に
ついての状況情報をもとに協同作業の時間調整を行なう
当日時間管理手段とを具備したことを特徴とする。
Further, the application control means is stored in the cooperative work information storage means for storing the cooperative work condition included in the request for the cooperative work inputted by the application input / output means, and the cooperative work information storage means. The present invention is characterized by further comprising a day-time management means for adjusting the time of the collaborative work based on the situation information about the persons involved in the collaborative work based on the collaborative work conditions.

【0017】これにより、協同作業の参加対象となる人
物の現在の状況を状況情報として入力し、この状況情報
と協同作業の協同作業条件に基づいて、時間レベルの調
整ができる。
Thus, the current status of the person who is the target of the cooperative work is input as status information, and the time level can be adjusted based on this status information and the cooperative work condition of the cooperative work.

【0018】また前記当日時間管理手段は、協同作業の
関係者についての状況情報をもとに、各人についての協
同作業への参加受入れの可能性を示す依頼受託評価値
と、前記依頼受託評価値に基づく協同作業の開催の適当
性を示す開催評価値とを求めて、協同作業の調整を行な
うことを特徴とする。
Further, the same-day time management means, based on the situation information about the persons involved in the cooperative work, the commissioned evaluation value indicating the possibility of accepting participation in the cooperative work for each person, and the commissioned evaluation. The feature of the present invention is that the holding work evaluation value, which indicates the appropriateness of holding the holding work based on the value, and the holding work evaluation value are obtained, and the working work is adjusted.

【0019】これにより、協同作業の各参加者について
の参加受入れの可能性と、それらを考慮した協同作業の
開催の適当性を判別することで、状況情報を用いて協同
作業の的確な調整が可能である。
Thus, by determining the possibility of accepting the participation of each participant of the cooperative work and the appropriateness of holding the cooperative work in consideration of them, it is possible to accurately adjust the cooperative work using the situation information. It is possible.

【0020】また複数の前記応用サービス提供手段の間
で、ある応用サービス提供手段で実行するプロセスを再
帰的に分割し、分割された部分プロセスを他の応用サー
ビス提供手段において起動することで、部分プロセスの
処理結果を共通利用することを特徴とする。
In addition, a process executed by a certain application service providing means is recursively divided among a plurality of the application service providing means, and the divided partial processes are activated by other application service providing means, thereby The feature is that the processing results of the processes are commonly used.

【0021】これにより、複数の応用サービス提供手段
が接続された場合、再起的にプロセスを分割すること
で、複数のアプリケーション(応用サービスプロセス)
間で、処理部品(各プロセスによる処理結果)の共有化
が可能となる。
As a result, when a plurality of application service providing means are connected, the process is recursively divided into a plurality of applications (application service processes).
It is possible to share processing components (processing results by each process) between the two.

【0022】例えば、現在の実際のオフィス環境では、
メンバの一人が実際にオフィスの中を歩き回って各メン
バの様子を「観察」し、声を掛けてメンバを「召集」す
る必要などがあったが、各メンバーの時間的仕事状況
は、時間表として入力しないでも、例えばカメラを介し
て個別にメンバの仕事状況を観察すれば「今は忙しそう
だ」「今は全員が集合できるようだ」などと判定するこ
とが可能である。
For example, in the current actual office environment,
It was necessary for one of the members to actually walk around the office to "observe" the state of each member, and to call out to "convene" the members. Even if it is not input as, it is possible to judge that “it seems to be busy now” “all members can now gather” by observing the work status of the members individually via the camera.

【0023】従って、カメラ(画像)の入力と画像処理
(および各種入力デバイス)を用いれば、各メンバの様
子の観察が可能であり、スケジューラと判定装置により
開催時間を決定し、ネットワークを介してメンバにメッ
セージを伝達しメンバを召集することが可能となる。
Therefore, if the input of the camera (image) and the image processing (and various input devices) are used, the state of each member can be observed, the holding time is decided by the scheduler and the judging device, and the holding time is decided through the network. It becomes possible to send messages to members and call them together.

【0024】[0024]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。図1は第1の実施形態に係
わる協同作業調整装置の構成を示すブロック図である。
図1には、構成要素と信号の流れが表現されている。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the cooperative work adjusting apparatus according to the first embodiment.
In FIG. 1, the flow of components and signals is represented.

【0025】第1の実施形態における協同作業調整装置
による調整の対象は、例えば会議の開催、オフィスの協
同利用部分の掃除、協同で行なう荷物運びなど、複数人
について日程的、時間的スケジュールの決定が必要な協
同作業が考えられる。また、協同作業は、必ずしも複数
人による作業に限らず、一人以上の人に仕事を依頼する
作業であれば本発明を適用することができる。
The objects to be adjusted by the cooperative work adjusting apparatus in the first embodiment are schedule and time schedule determination for a plurality of people, such as holding a conference, cleaning the office shared use part, and carrying luggage in a cooperative manner. It is considered that there is a collaborative work that requires. Further, the collaborative work is not necessarily limited to the work by a plurality of people, and the present invention can be applied to any work in which one or more people are requested to work.

【0026】図1に示すように、本実施形態における協
同作業調整装置は、1つ以上の入力部10、状況情報通
信部12、1つ以上の応用サービス提供部14、出力情
報通信部16、1つ以上の出力部18によって構成され
ている。
As shown in FIG. 1, the collaborative work adjustment apparatus according to the present embodiment includes one or more input units 10, situation information communication unit 12, one or more applied service providing units 14, output information communication unit 16, It is composed of one or more output units 18.

【0027】入力部10は、例えばオフィス環境におい
て利用される計算機によって構成されるもので、画像入
力部10bを少なくとも1つ、あるいは画像入力部10
bを少なくとも一つと複数の入力デバイス10a、及び
状況情報変換部10cを有している。
The input unit 10 is composed of, for example, a computer used in an office environment, and has at least one image input unit 10b or the image input unit 10b.
It has at least one b, a plurality of input devices 10a, and a situation information conversion unit 10c.

【0028】状況情報変換部10cは、入力デバイス1
0aと画像入力部10bからの入力データを、協同作業
の参加者の周囲環境または状況を示す状況情報に変換す
る。状況情報変換部10cの詳細については後述する。
The status information conversion unit 10c includes the input device 1
0a and the input data from the image input unit 10b are converted into situation information indicating the surrounding environment or situation of the participants in the cooperative work. Details of the situation information conversion unit 10c will be described later.

【0029】入力デバイス10aには、例えばキーボー
ド、マウス等のポインティングデバイス、マイクなどの
計算機に対する入力を行なうデバイスである。
The input device 10a is a device for inputting to a computer such as a pointing device such as a keyboard and a mouse, a microphone such as a microphone.

【0030】画像入力部10bは、計算機の近傍(また
はディスプレイ装置や本体に)設置されたカメラであ
り、計算機を使用するための位置(計算機に相対する位
置)にいる人物やその周囲の画像を撮影する。画像入力
部10bは、例えばCCDカメラ、赤外線カメラ、高感
度カメラ等によって構成される。本実施形態では、画像
入力部10bとしてカラーCCDカメラが設けられ、濃
淡画像情報をもつカラー画像を撮影するものとして説明
する。
The image input unit 10b is a camera installed in the vicinity of the computer (or in the display device or the main body), and displays an image of a person at a position for using the computer (a position relative to the computer) or the surroundings thereof. Take a picture. The image input unit 10b is composed of, for example, a CCD camera, an infrared camera, a high-sensitivity camera, or the like. In this embodiment, a color CCD camera is provided as the image input unit 10b, and a color image having grayscale image information is captured.

【0031】状況情報通信部12は、1つ以上の入力部
10と1つ以上の応用サービス提供部14との間を相互
に接続する。状況情報通信部12は、例えば情報をパケ
ットの形式で伝送するもので、形態(有線あるいは無
線)やプロトコルのレベルなどは問わない。物理的に複
数の電線で構成されるバス構造をとっていても良い。い
ずれにしろ、入力部10の状況情報変換部10cと応用
サービス提供部14が相互に情報を伝達可能な構成であ
れば良い。
The status information communication unit 12 interconnects the one or more input units 10 and the one or more application service providing units 14 with each other. The status information communication unit 12 transmits, for example, information in the form of a packet, and the form (wired or wireless) or protocol level does not matter. A bus structure physically composed of a plurality of electric wires may be adopted. In any case, the configuration is such that the situation information conversion unit 10c of the input unit 10 and the applied service providing unit 14 can mutually transmit information.

【0032】図2に状況情報通信部12を伝送されるパ
ケットの形態の一例を示している。パケットのヘッダ部
の発信ID、宛先ID、内容IDに続いて、内容(情
報)のデータが含まれている。パケットは、後述する応
用サービス提供部14から特に要求されて情報を送信す
る場合でなければ、通常、宛先IDの部分が「応用サー
ビス提供部一般(応用サービス提供部14を構成する何
れの装置がとっても良い)」ことを示すパケットにな
る。パケットの内容(情報)には、時間的な差分情報、
すなわち状況情報変換部10cによって変換された状況
情報がある状態からある状態に変化したことを表わす情
報が含まれる。
FIG. 2 shows an example of the form of a packet transmitted through the status information communication unit 12. Following the transmission ID, the destination ID, and the content ID in the header portion of the packet, the content (information) data is included. Unless a packet is specifically requested by the application service providing unit 14 to be described later and the information is transmitted, the destination ID part is usually "application service providing unit general (any device configuring the application service providing unit 14 Very good) ”. The packet contents (information) include temporal difference information,
That is, the status information converted by the status information conversion unit 10c includes information indicating that the status information is changed from a certain state to a certain state.

【0033】応用サービス提供部14は、入力部10の
状況情報変換部10cによって得られる状況情報を状況
情報通信部12を介して入力し、状況情報をもとに協同
作業参加可能な人物を把握し、協同作業実行の日時を調
停するための応用サービスを提供する。
The application service providing unit 14 inputs the status information obtained by the status information conversion unit 10c of the input unit 10 via the status information communication unit 12, and grasps the persons who can participate in the cooperative work based on the status information. Then, it provides an application service for arbitrating the date and time of cooperative work execution.

【0034】出力情報通信部16は、1つ以上の応用サ
ービス提供部14と1つ以上の出力部18との間を相互
に接続する。
The output information communication unit 16 connects the one or more application service providing units 14 and the one or more output units 18 to each other.

【0035】出力部18は、応用サービス提供部14に
よって把握された協同作業参加可能な人物に対してメッ
セージを伝達するために用いられる。
The output unit 18 is used to transmit a message to a person who is grasped by the application service providing unit 14 and who can participate in the cooperative work.

【0036】本実施形態における協同作業調整装置は、
例えば複数の計算機(入力部10)が、ネットワーク等
の通信手段(状況情報通信部12、出力情報通信部1
6)を介して互いに接続された計算機システムによって
実現される。
The cooperative work adjusting device in this embodiment is
For example, a plurality of computers (input unit 10) are connected to communication means such as a network (situation information communication unit 12, output information communication unit 1).
It is realized by a computer system connected to each other via 6).

【0037】一般的な計算機は、キーボード等の入力デ
バイスとディスプレイ装置等の出力デバイスとの対を少
なくとも一対有している。従って、計算機には、入力部
10と出力部18が一対備わった構成とみなすことがで
きる。
A general computer has at least one pair of an input device such as a keyboard and an output device such as a display device. Therefore, it can be considered that the computer has a pair of the input unit 10 and the output unit 18.

【0038】また、出力部18は、計算機におけるディ
スプレイなどの表示装置に限らず、メモリやハードディ
スクなどの記憶部や、プリンタ、電化製品のスイッチ、
ページャ等の通信機器、スピーカなどであっても良く、
協同作業の参加者に何等かの方法でメッセージを通知で
きるものであれば良い。なお、記憶部に出力(記憶)さ
れたメッセージは、例えばディスプレイ上での表示に供
されることで協同作業の参加者に通知される。
The output unit 18 is not limited to a display device such as a display in a computer, but may be a storage unit such as a memory or a hard disk, a printer, a switch for electrical appliances, or the like.
It may be a communication device such as a pager or a speaker,
Anything that can notify the message to the participants of the collaborative work by some method will do. The message output (stored) in the storage unit is notified to the participants of the cooperative work by being displayed on the display, for example.

【0039】次に、入力部10における状況情報変換部
10cの詳細について説明する。
Next, details of the situation information conversion unit 10c in the input unit 10 will be described.

【0040】状況情報変換部10cは、入力デバイス1
0aに相対する人物あるいは環境の状況情報を、入力デ
バイス10aあるいは画像入力部10bから得られるデ
ータをもとに抽出する。
The status information conversion unit 10c is the input device 1
The situation information of the person or environment relative to 0a is extracted based on the data obtained from the input device 10a or the image input unit 10b.

【0041】状況情報は、画像入力部10b(カメラ)
によって撮影された画像内に写った人の属性、例えば入
力画像から抽出できる情報では、「誰であるか」「着座
している、いない」「立ち上がっている、いない」「あ
る方向を向いている、いない」「電話中である、ない」
「視線方向」「表情」などを示す情報を含む。また、入
力デバイス10aから入力されるデータに基づいて判別
される属性、例えばキーボードに対するタイピングリズ
ムから判別される「仕事が順調に進んでいるか」、入力
データから「今、何の仕事をしているか」などを示す情
報を含む。入力データから実行中の処理を判別する方法
としては、計算機がディスプレイの表示画面上で任意の
ウィンドウを設定しながら処理を実行するシステムを実
現している場合、入力データ(コマンド等)に応じて実
行しているプロセス番号を調べることで、どの種のウィ
ンドウを用いて動作しているか(どのウィンドウを見て
いるか)を認識することによって行なう。
The status information is displayed in the image input section 10b (camera).
The attributes of the person in the image taken by, for example, the information that can be extracted from the input image, "who", "sitting, not""standing, not standing""looking in one direction""No,""I'm on the phone, no."
The information includes "gaze direction", "expression", and the like. In addition, an attribute determined based on the data input from the input device 10a, for example, "is the work progressing smoothly" determined from the typing rhythm on the keyboard, and "what work is being done now" from the input data. , Etc. is included. As a method of distinguishing the process being executed from the input data, if the computer realizes a system that executes the process while setting an arbitrary window on the display screen, it is possible to determine the process depending on the input data (command, etc.). It does this by knowing what kind of window it is running (which window it is looking at) by looking at the process number it is running.

【0042】図3は状況情報変換部10cの詳細な構成
を示している。図3に示すように、状況情報変換部10
cは、人検出部20、個人認証部21、頭部方向推定部
22、視線方向推定部23、口形状動作推定部24、腕
動作推定部25、及び状況情報生成部26を含んで構成
される。以下、それぞれの構成部について説明する。
FIG. 3 shows a detailed configuration of the situation information conversion unit 10c. As shown in FIG. 3, the situation information conversion unit 10
The c is configured to include a person detection unit 20, a personal authentication unit 21, a head direction estimation unit 22, a gaze direction estimation unit 23, a mouth shape motion estimation unit 24, an arm motion estimation unit 25, and a situation information generation unit 26. It Hereinafter, each component will be described.

【0043】人検出部20は、画像入力部10b(カメ
ラ)によって撮影された画像中から人間に該当する領域
(顔、肢体に該当する領域等)を判別・抽出するもの
で、図4に示すように構成されている。
The person detecting section 20 is for discriminating and extracting a region corresponding to a human (a region corresponding to a face, a limb, etc.) from an image taken by the image input unit 10b (camera), and is shown in FIG. Is configured.

【0044】図4に示すように、人検出部20は、差分
検出部20a、顔検出部20b、肢体検出部20c、ス
コア統合部20d、人数計数部20eによって構成され
ている。
As shown in FIG. 4, the person detecting section 20 is composed of a difference detecting section 20a, a face detecting section 20b, a limb detecting section 20c, a score integrating section 20d, and a person counting section 20e.

【0045】差分検出部20aは、画像入力部10b
(カメラ)が設置された撮影環境において、誰も撮影さ
れていない状況での画像を予め取得しておき、その画像
との差分画像を生成することによって変化のあった領域
を、人物の顔または肢体に該当する領域の候補を検出す
る。差分画像を生成あるいは検出する技術には、(H.Na
kai:''Non-Parametrized Bayes Decision Method for M
oving Object Detection'',Proc. Second ACCV. Vol 3.
pp447-451(1995) )などがある。
The difference detecting section 20a includes an image input section 10b.
In a shooting environment in which a (camera) is installed, an image in a situation where no one is being shot is acquired in advance, and an area that has changed by generating a difference image with that image A candidate for a region corresponding to a limb is detected. Techniques for generating or detecting difference images include (H.Na
kai: '' Non-Parametrized Bayes Decision Method for M
oving Object Detection '', Proc. Second ACCV. Vol 3.
pp447-451 (1995)).

【0046】差分検出部20aによって検出された領域
について、2つの処理を行なう。一方は顔検出部20b
による、検出された領域の濃淡画像情報をそのまま用い
て顔の検出を行なうもの、他方は肢体検出部20cによ
る、検出された領域を二値画像として扱い、領域の配置
を含む各種の属性(後述する)の関係を用いて肢体の検
出を行なうものである。
Two processes are performed on the area detected by the difference detection unit 20a. One is the face detection unit 20b
According to the method described above, the grayscale image information of the detected area is used as it is to detect a face. )) Is used to detect the limbs.

【0047】顔検出部20bは、予めさまざまな方向か
ら顔を撮影して得た画像データをもとに作成された、そ
れぞれの方向の平均顔画像データ(辞書画像)と、差分
検出部20aによって検出された領域の画像データとに
ついてマッチングを行なうことにより人物の顔の検出を
行なう。
The face detection unit 20b uses the average face image data (dictionary image) in each direction, which is created based on the image data obtained by photographing the face from various directions in advance, and the difference detection unit 20a. A person's face is detected by performing matching with the image data of the detected area.

【0048】本実施形態では、顔検出部20bによって
扱われる辞書画像の大きさは固定とする。一般に、大き
な画像を辞書画像として用意すると、マッチング処理に
非常に多くの時間を要するため、例えば30×30程度
の大きさの辞書画像を用意する。大きさが固定の辞書画
像を用いて、撮影して得た画像中に含まれるさまざまな
大きさの顔を検出できるようにするため、撮影した画像
の解像度を辞書画像の大きさに応じて変化させた上で、
辞書画像とのマッチングを行なうものとする。
In the present embodiment, the size of the dictionary image handled by the face detecting section 20b is fixed. Generally, if a large image is prepared as a dictionary image, it takes a very long time for the matching process. Therefore, for example, a dictionary image having a size of about 30 × 30 is prepared. Using a dictionary image with a fixed size, the resolution of the captured image is changed according to the size of the dictionary image so that faces of various sizes included in the captured image can be detected. After letting it
Matching with the dictionary image is performed.

【0049】マッチングの度合(類似度)については、
使用するマッチング方法に応じた類似度、例えば相関、
単純、複合、混合類似度などにより設定する。顔検出部
20bは、差分検出部20aによって検出された領域の
画像データに対する類似度値が、ある閾値以下であった
場合には顔の領域とする候補から除き、閾値を越える場
合には顔の領域とする候補として判定する。なお、候補
数は、複数であってもよい。
Regarding the degree of matching (similarity),
Similarity according to the matching method used, for example correlation,
Set by simple, compound, mixed similarity, etc. The face detection unit 20b removes a face area candidate from a candidate that is a face area when the similarity value of the area detected by the difference detection unit 20a with respect to the image data is less than or equal to a certain threshold value. Determined as a candidate for the area. The number of candidates may be plural.

【0050】肢体検出部20cは、差分検出部20aに
よって生成された二値画像を用いて得た、差分画像の場
所について再度、撮影したカラー画像から、例えば色相
情報、彩度情報、明度情報に基づいて、領域分割を行な
い、ラベリングする。肢体検出部20cは、それらの領
域の位置情報、形状情報、色相、明度といった属性情報
を用いて、人間の肢体の部分に該当する領域と考えられ
る組合せを抽出する。肢体検出部20cは、抽出した領
域の組合わせ(人間の肢体の部分に該当すると考えられ
る領域)の形状、面積などから、足、胴、腕などとの形
状モデルに対する信頼度を定義し、その信頼度の総和が
最も最大となる組合せの領域を人間の肢体の部分(この
段階では仮説)として抽出する。
The limb detection unit 20c again obtains, for example, hue information, saturation information, and lightness information from the photographed color image for the location of the difference image obtained using the binary image generated by the difference detection unit 20a. Based on this, area division is performed and labeling is performed. The limb detection unit 20c uses the attribute information such as the position information, the shape information, the hue, and the brightness of those regions to extract a combination that is considered to be a region corresponding to a human limb. The limb detection unit 20c defines the reliability of the shape model of the legs, torso, arms, etc. from the shape, area, etc. of the combination of the extracted regions (regions considered to correspond to human limbs), and The region of the combination that maximizes the sum of reliability is extracted as a part of the human limb (hypothesis at this stage).

【0051】顔検出部20b及び肢体検出部20cは、
入力画像中の人間(顔、肢体等)が存在すると考えられ
る画像中の領域について、顔の位置、肢体の位置(足、
胴、腕等)の位置を示すデータと信頼度を記述した情報
をスコア統合部20dに送る。
The face detecting section 20b and the limb detecting section 20c are
Regarding the region in the image where humans (face, limbs, etc.) in the input image are considered to exist, the position of the face, the position of the limbs (foot,
Data indicating the position of the torso, arm, etc. and information describing the reliability are sent to the score integration unit 20d.

【0052】スコア統合部20dは、顔検出部20bと
肢体検出部20cから得られた顔位置と肢体位置の仮説
を統合し、それぞれの存在確率を2次元空間に投票す
る。
The score integration unit 20d integrates the hypotheses of the face position and the limb position obtained from the face detection unit 20b and the limb detection unit 20c, and votes the existence probabilities of the respective hypotheses in a two-dimensional space.

【0053】人数係数部20eは、スコア統合部20d
によって投票された、仮説についての存在確率を統合的
に判断し、画像中に何人の人がどのように撮影されてい
るかを判別する。
The number-of-people coefficient section 20e is the score integration section 20d.
The existence probabilities of the hypotheses voted by are comprehensively determined, and how many people are photographed in the image are determined.

【0054】スコア統合部20dによって存在確率が投
票された空間に対し、ある閾値を設定し、その閾値より
も高い部分を人間に該当する領域として、撮影された人
数、撮影された人の位置、大きさ(画像中の領域)、概
略向き、顔位置、足位置、胴位置、腕位置など位置の情
報を判別して記憶する。
A certain threshold value is set for the space in which the existence probability is voted by the score integration section 20d, and the number of photographed persons, the positions of the photographed persons are set as the area higher than the threshold value, which corresponds to a human. Position information such as size (area in image), approximate orientation, face position, foot position, torso position, arm position is determined and stored.

【0055】ここで閾値は、予測できる情報、環境の場
合に応じて変化させる。例えば、午前と午後などの日照
条件の変化による全体的な閾値の設定方向の改善や、人
間が、ある場所から画像入力部10bによる撮影範囲内
に動いていることがわかっている場合には、前の場所に
おいて、肢体の大きさなどが推定されているため、撮影
範囲においては、予測される画像中の位置によって、予
めその領域付近の閾値を変化させるなどの制御を行な
う。これらに用いるパラメータは、実験によって求めら
れる。
Here, the threshold is changed according to the predictable information and the environment. For example, when it is known that the setting direction of the overall threshold value is improved due to a change in sunshine conditions such as morning and afternoon, or that a person is moving within a shooting range by the image input unit 10b from a certain location, Since the size of the limbs and the like are estimated at the previous location, control such as changing the threshold value in the vicinity of the region in advance is performed in the imaging range depending on the predicted position in the image. The parameters used for these are obtained by experiments.

【0056】次に、個人認証部21について説明する。
個人認証部21は、人検出部20によって検出された顔
位置に撮影されている顔が誰であるかを認証する。個人
認証部21は、先に人検出部20で検出された人数分に
ついて、それぞれの領域の画像について照合を行なう。
認証の方法としては、予め、認識対象として登録された
人の中からの識別が主となる。
Next, the personal authentication section 21 will be described.
The personal authentication unit 21 authenticates who is the face photographed at the face position detected by the human detection unit 20. The personal authentication unit 21 performs collation on the images in the respective areas for the number of persons previously detected by the person detection unit 20.
As an authentication method, identification is mainly performed from among persons who are registered as recognition targets in advance.

【0057】図5には人検出部20による処理過程を示
している。画像入力部10bによって撮影された画像中
から差分検出部20aによって検出された図5(a)に
示す入力画像(差分画像)をもとに、顔検出部20b
は、図5(b−1)に示すように、顔位置の候補とそれ
ぞれの信頼度を求め、肢体検出部20cは、図5(b−
2)に示すように、肢体位置の候補とそれぞれの信頼度
を求める。スコア統合部20dは、顔検出部20bと肢
体検出部20cによって投票された各候補と信頼度を、
図5(c)に示すようにして統合する。人数計数部20
eは、スコア統合部20dによって図5(c)に示すよ
うに統合された中から、例えばしきい値を「1.0」と
してしきい値処理を行ない、図5(d)に示すような結
果を得る。この例では、2人が撮影されているものと推
定される。
FIG. 5 shows a process of the person detecting section 20. Based on the input image (difference image) shown in FIG. 5A detected by the difference detection unit 20a from the images captured by the image input unit 10b, the face detection unit 20b
As shown in FIG. 5 (b-1), the face position candidates and their respective degrees of reliability are obtained.
As shown in 2), candidates for limb positions and their respective degrees of reliability are obtained. The score integration unit 20d calculates the reliability and each candidate voted by the face detection unit 20b and the limb detection unit 20c.
Integration is performed as shown in FIG. People counting unit 20
The e is subjected to the threshold processing by setting the threshold value to "1.0" from the points integrated by the score integration unit 20d as shown in FIG. 5 (c), as shown in FIG. 5 (d). Get results. In this example, it is estimated that two people are photographed.

【0058】個人認証部21は、図6に示すように構成
され、人検出部20によって得られた顔位置に撮影され
ている顔が誰であるかを認証する。認証の方法として
は、登録された人の中からの識別が主となる。個人認証
部21は、図6に示すように、個人認証部21は、正規
化部21a、照合部21b、辞書蓄積部21c、及び評
価部21dによって構成されている。
The personal authentication section 21 is configured as shown in FIG. 6, and authenticates who is the face photographed at the face position obtained by the person detection section 20. As a method of authentication, identification among registered persons is the main. As shown in FIG. 6, the personal authentication unit 21 includes a normalization unit 21a, a collation unit 21b, a dictionary storage unit 21c, and an evaluation unit 21d.

【0059】正規化部21aは、人検出部20(顔検出
部20b)によって検出された顔位置の画像から目の位
置を検出し、その目の位置をもとにして後段の照合部2
1bにおける処理のために、辞書蓄積部21cに蓄積さ
れた辞書画像と同じ大きさの画像(正規化画像)を生成
(正規化)する。
The normalizing section 21a detects the eye position from the image of the face position detected by the person detecting section 20 (face detecting section 20b), and based on the eye position, the collating section 2 in the subsequent stage.
For the processing in 1b, an image (normalized image) having the same size as the dictionary image stored in the dictionary storage unit 21c is generated (normalized).

【0060】照合部21bは、正規化部21aによって
正規化された顔の部分に画像について、辞書蓄積部21
cに蓄積された複数の辞書画像とそれぞれ照合する。本
実施形態において照合部21bは、複合または混合類似
度を用いて入力画像と辞書画像との類似度を算出する。
The collation unit 21b, for the image of the face normalized by the normalization unit 21a, stores in the dictionary storage unit 21.
Each of the dictionary images stored in c is collated. In the present embodiment, the matching unit 21b calculates the similarity between the input image and the dictionary image using the composite or mixed similarity.

【0061】辞書蓄積部21cは、認識対象とする人の
それぞれについての辞書画像が予め蓄積されている。
The dictionary storage unit 21c stores in advance dictionary images for each person to be recognized.

【0062】評価部21dは、辞書蓄積部21cに登録
された辞書画像(認識対象とする人の数分)のそれぞれ
について得られた複数の類似度値のうち最大の類似度値
をもつ辞書画像を認識結果、すなわち辞書画像に対応す
る人の顔が入力画像に含まれているものと決定する。た
だし、類似度値が、予め指定した閾値よりも低い場合
は、撮影された人が誰であるかを決定せずに認識不能と
する。
The evaluation unit 21d has a dictionary image having the maximum similarity value among the plurality of similarity values obtained for each of the dictionary images (the number of persons to be recognized) registered in the dictionary storage unit 21c. Is determined as the recognition result, that is, the face of the person corresponding to the dictionary image is included in the input image. However, if the similarity value is lower than a threshold value designated in advance, the person who has been photographed is not determined and is not recognized.

【0063】個人認証部21は、先に人検出部20で検
出された人の数だけ、複数人の照合が行なう。
The personal authenticating section 21 collates a plurality of persons by the number of persons previously detected by the person detecting section 20.

【0064】次に、頭部方向推定部22について説明す
る。頭部方向推定部22は、人検出部20によって検出
された、顔の向き、肢体の見え方(頭位置、胴位置、腕
位置など)から頭部方向を推定する。
Next, the head direction estimating section 22 will be described. The head direction estimation unit 22 estimates the head direction from the face direction and the appearance of the limbs (head position, torso position, arm position, etc.) detected by the human detection unit 20.

【0065】頭部方向推定部22は、人検出部20によ
って検出された顔位置の付近の濃淡情報を用いて、複数
の顔モデルのパターンと照合することにより顔が向いて
いる方向を推定する。パターンと照合する際の類似度と
しては、相関を用いた公知例(塚本、李、辻:複数のモ
デルによる頭の動き推定、電子情報通信学会論文誌Vo
l77−D−II,No.8,PP.1582−159
0(1994))が存在するが、ここでは、複合類似度
を用いてパターンの類似度を調べ、顔の向きを決定す
る。
The head direction estimation unit 22 estimates the direction in which the face is facing by collating with the patterns of a plurality of face models using the grayscale information near the face position detected by the human detection unit 20. . As a degree of similarity in matching with a pattern, a known example using correlation (Tsukamoto, Lee, Tsuji: Head motion estimation using multiple models, IEICE Transactions Vo
177-D-II, No. 8, PP. 1582-159
0 (1994)), the pattern similarity is examined using the composite similarity to determine the face orientation.

【0066】また、頭部方向推定部22は、目、鼻など
の特徴点から顔の向きを出す方法として(ディシルバリ
ヤナゲ、相澤清晴、羽鳥光俊:人間の顔の向きの推定:
信学技報PRU−49−18(1994))などを用い
て、顔の向きを決定しても良い。
Further, the head direction estimating unit 22 determines the direction of the face from the characteristic points such as eyes and nose (disciplinary willow, Kiyoharu Aizawa, Mitsutoshi Hatori: estimation of human face direction:
The orientation of the face may be determined by using, for example, the Technical Bulletin PRU-49-18 (1994)).

【0067】また、頭部方向推定部22は、肢体の方向
も同様に、人検出部20で検出された領域グループ
(足、胴、腕等を含む)の画像とパターンとを照合して
向きを求める。
Similarly, the head direction estimating section 22 compares the orientation of the limbs with the image of the area group (including the feet, torso, arms, etc.) detected by the human detecting section 20 and the pattern to determine the orientation. Ask for.

【0068】次に、視線方向推定部23について説明す
る。視線方向推定部23は、画像入力部10b(カラー
CCDカメラ)によって、離れた位置から撮影された画
像中の顔の位置の目または目の付近から得られる特徴量
を使って視線方向を推定する。
Next, the line-of-sight direction estimation unit 23 will be described. The line-of-sight direction estimation unit 23 estimates the line-of-sight direction by using the image input unit 10b (color CCD camera) and the feature amount obtained from the eyes at the position of the face in the image captured from a distant position or the vicinity of the eyes. .

【0069】視線方向の検出方法としては、特開平4−
255015号における、視線の相対的な移動量を瞳の
輪郭データを抽出瞳の中心座標の変化から求める方法
や、特開平3−17696号における、ワードプロセッ
サ等のカーソル位置を視線によって制御することを目的
として、目の領域を瞳孔中心を通る垂直線と水平線で分
割し、分けられた領域の面積比を特徴量として、視点位
置を算出する方法を利用することができる。
As a method of detecting the line-of-sight direction, Japanese Patent Laid-Open No.
A method for determining the relative amount of movement of the line of sight in 255515 by extracting the contour data of the pupil from changes in the center coordinates of the pupil, and controlling the cursor position of a word processor or the like by the line of sight in JP-A-3-17696. As a method, a method of dividing the eye region by a vertical line and a horizontal line passing through the center of the pupil and using the area ratio of the divided regions as a feature amount to calculate the viewpoint position can be used.

【0070】本実施例では、目頭、目尻と瞳の中心の相
対的な位置関係を特徴ベクトルとして、その特徴ベクト
ルを線形識別し、パターン認識によって、顔の方向に対
してどの方向を見ているかを推定する。
In this embodiment, the relative positional relationship between the inner and outer corners of the eye and the center of the pupil is used as a feature vector, and the feature vector is linearly identified, and by pattern recognition, which direction is seen with respect to the face direction? To estimate.

【0071】次に、口形状動作推定部24について説明
する。口形状動作推定部24は、人検出部20によって
検出された顔位置の画像中の口の部分から、口の開閉を
検出する。口の開閉の検出方法として、(間瀬、A.Pent
land:オプティカルフローを用いた読唇の試み、電子情
報通信学会論文誌D-II,Vo173-D-II,No.6,pp.796-803,(1
990))や(A.L.Yuille, P.W.Hallman, D.S.Cohen:Featu
re Extraction from Faces Using Deformable Template
s, International Journal on Computer Vision,Vo18,n
o.2,pp,99-111(1992) )を用いることができる。
Next, the mouth shape motion estimation unit 24 will be described. The mouth shape motion estimation unit 24 detects opening / closing of the mouth from the mouth portion in the image of the face position detected by the person detecting unit 20. As a method of detecting the opening and closing of the mouth, (Mase, A.Pent
land: A trial of lip-reading using optical flow, IEICE Transactions D-II, Vo173-D-II, No.6, pp.796-803, (1
990)) and (ALYuille, PWHallman, DSCohen: Featu
re Extraction from Faces Using Deformable Template
s, International Journal on Computer Vision, Vo18, n
o.2, pp, 99-111 (1992)) can be used.

【0072】本実施例では、例えば口の多段階の開閉具
合(開閉度)に応じた開閉パターンをそれぞれ5種類用
意し、各パターンと入力画像中の口の部分とマッチング
した結果、一番近いパターンに応じた開閉度を、現在、
画像入力部10bにより撮影の対象となっている人の口
の開閉状態とする。時間の経過に伴って各時点での口の
開閉度を判別し、それら口の開閉度の頻度情報を求める
ことによって、話している、あくびをしているなどを検
出する。
In the present embodiment, for example, five types of opening / closing patterns are prepared according to the opening / closing degree (opening / closing degree) of the mouth in multiple stages, and as a result of matching each pattern with the mouth portion in the input image, the result is the closest. The degree of opening and closing according to the pattern is currently
The image input unit 10b opens and closes the mouth of the person who is the subject of photography. The degree of opening and closing of the mouth at each point of time is discriminated with the passage of time, and the frequency information of the degree of opening and closing of the mouth is obtained to detect talking, yawning, and the like.

【0073】次に、腕動作推定部25について説明す
る。腕動作推定部25は、例えば色相情報を用いた手検
出による方法を用いる。腕動作推定部25は、人検出部
20で行った領域分割の結果から、顔領域ではなく、肌
色の色相をもつ領域を手領域候補とする。この手領域候
補は、顔位置との相対的な位置関係や、領域の大きさな
どのいくつかの制約に基づいて選択される。腕動作推定
部25は、手領域の重心位置を特徴量として取り出し、
時間の経過に伴って入力される画像中の手領域の重心位
置の変化から腕の動作を推定し、さらには歩いている、
手を振っているなどの動作の検出を行なう。
Next, the arm motion estimating section 25 will be described. The arm motion estimation unit 25 uses, for example, a method based on hand detection using hue information. Based on the result of the area division performed by the person detecting section 20, the arm motion estimating section 25 determines not the face area but the area having the skin color hue as the hand area candidate. The hand region candidate is selected based on some relative constraints such as the relative positional relationship with the face position and the size of the region. The arm motion estimation unit 25 extracts the barycentric position of the hand region as a feature amount,
Estimate the movement of the arm from the change of the center of gravity position of the hand region in the image input with the passage of time, and further walk,
Detects motions such as waving hands.

【0074】次に、状況情報生成部26について説明す
る。状況情報生成部26は、上記した各処理部21〜2
5における画像解析の情報を統合し、ある人間の状態の
記述(状態情報)を生成する。状況情報生成部26は、
図7に示すように、統合部26a、時刻発生部26b、
場所情報記憶部26c、履歴記憶部26d、統合行動認
識部26e、統合情報記憶部26fから構成される。
Next, the status information generation unit 26 will be described. The situation information generation unit 26 includes the processing units 21 and 2 described above.
The image analysis information in 5 is integrated to generate a description (state information) of a certain human state. The situation information generator 26
As shown in FIG. 7, the integration unit 26a, the time generation unit 26b,
The location information storage unit 26c, the history storage unit 26d, the integrated action recognition unit 26e, and the integrated information storage unit 26f are included.

【0075】統合部26aは、各処理部21〜25にお
ける検出結果(認識結果、推定候補)を入力して統合す
る。統合部26aは、統合結果を統合行動認識部26e
に出力すると共に、人検出部20において検出されてい
る人数に対応して履歴記憶部26dに用意される、図8
に示すようような状況登録テーブルのスロットに、各処
理部21〜25におけるそれぞれの検出結果を登録す
る。
The integrating unit 26a inputs and integrates the detection results (recognition results, estimation candidates) in the processing units 21 to 25. The integration unit 26a displays the integration result as the integrated action recognition unit 26e.
8 and is prepared in the history storage unit 26d in correspondence with the number of persons detected by the person detection unit 20, FIG.
The detection results of the processing units 21 to 25 are registered in the slots of the situation registration table as shown in FIG.

【0076】時刻発生部26bは、画像取得、認識処理
時間の間隔を考慮して、その間隔が表現できる単位まで
記録できるように日付、時刻を発生する。時刻について
は、画像取得が行われた時刻を記録する。
The time generation unit 26b considers the interval of the image acquisition and recognition processing time and generates the date and time so that the interval can be expressed in units that can be expressed. As for the time, the time when the image acquisition was performed is recorded.

【0077】場所情報記憶部26cは、画像入力部10
b(カラーCCDカメラ)が設置されている場所に基づ
く情報について記述したもので、例えば撮影範囲を考慮
したとき、撮影された画像中での人の大きさから、人と
カメラまでの距離がどの程度になるかといった情報や、
先に各情報の検出時に使用した画像に対する座標系の設
定方法、大域的な設置場所の位置情報が記憶される。な
お、これらの情報は、ある記憶場所に統合的に管理して
おき、その識別番号のみを各状況情報変換部10cで発
生させる方法でもよい。
The location information storage section 26c is used for the image input section 10.
b (Color CCD camera) describes the information based on the place where the camera is installed. For example, when considering the shooting range, the distance between the person and the camera depends on the size of the person in the captured image. Information such as the degree,
The setting method of the coordinate system for the image used at the time of detecting each information and the position information of the global installation place are stored in advance. Note that a method may be used in which these pieces of information are integratedly managed in a certain storage location and only the identification number is generated in each status information conversion unit 10c.

【0078】履歴記憶部26dは、統合部26aで生成
された情報を時系列で記憶、蓄積するもので、統合行動
認識部26eが過去の情報を必要とする際に参照され
る。
The history storage unit 26d stores and accumulates the information generated by the integration unit 26a in time series, and is referred to when the integrated action recognition unit 26e needs past information.

【0079】統合行動認識部26eは、統合部26aで
生成された情報の時間的変化から新たなレベルの状況情
報を生成する。例えば口の開閉が連続的に行われている
時には「話をしている」という状況情報を生成したり、
人の位置が連続的に移動し腕が降られていることから
「歩いている」などの状況情報を、時系列パターンを入
力し、統合情報記憶部26fに記憶された行動認識用の
辞書を参照することにより認識する。他には例えば、
「会話中である・ない」「笑っている・いない」「画面
を軽くながめている・いない」「画面を凝視している・
いない」「書類を読んでいる・いない」などの状況情報
が生成される。
The integrated action recognition section 26e creates a new level of situation information from the temporal change of the information created by the integrated section 26a. For example, when the mouth is continuously opened and closed, situation information such as "talking" is generated,
Since the position of the person is continuously moving and the arm is descending, situation information such as “walking” is input as a time-series pattern, and the dictionary for action recognition stored in the integrated information storage unit 26f is used. Recognize by referring. Other examples include
"I'm not talking,""I'm laughing, I'm not,""I look at the screen lightly, I'm not,""I'm staring at the screen.
Status information such as "No", "Reading / Not reading document" is generated.

【0080】このように時間的変化から認識される状況
情報を、ここでは「比較的高度なレベルの状況情報」と
呼んで説明する。
The situation information recognized from the temporal change as described above is referred to as “relatively high-level situation information” in the following description.

【0081】これらの比較的高度なレベルの状況情報
を、統合部26aで保有する情報の時間変化から認識す
るためには、例えば以下の方法を用いる。まず、統合部
26aで生成されるレベルの状況情報の時系列(時間的
推移)と、比較的高度なレベルの状況情報の関係をHM
M(Hidden Markov Model )やニューラルネットワーク
などを用いて学習する。統合情報記憶部26fは、この
学習データを辞書として記憶しておく。この学習データ
と実際の場面で入力された時系列データを比較すること
で、比較的高度なレベルの状況情報を得る。
In order to recognize these relatively high level situation information from the time change of the information held by the integration section 26a, for example, the following method is used. First, the relationship between the time series (temporal transition) of the level status information generated by the integration unit 26a and the status information of a relatively high level is HM.
Learning is performed using M (Hidden Markov Model) and neural networks. The integrated information storage unit 26f stores this learning data as a dictionary. By comparing this learning data with the time-series data input in the actual scene, a relatively high level situation information is obtained.

【0082】センサレベルで得られた状況情報は、図8
に示すような状況登録テーブル(その1)にして履歴記
憶部26dに登録した。統合行動認識部26eで得られ
た比較的高度なレベルの状況情報も、図9に示すように
状況登録テーブル(その2)にして履歴記憶部26dに
登録する。
The status information obtained at the sensor level is shown in FIG.
The situation registration table (No. 1) as shown in FIG. The relatively high-level status information obtained by the integrated behavior recognition unit 26e is also registered in the history storage unit 26d as a status registration table (No. 2) as shown in FIG.

【0083】状況情報変換部10cは、画像入力部10
bからの入力画像だけに基づいて状況情報を生成するの
に限らない。例えば、入力デバイス10aから得られる
情報、例えばキーボードのタイピングリズムの測定や、
椅子の移動量、椅子に座った人物の重心位置なども状況
情報として利用することができる。
The situation information conversion unit 10c includes the image input unit 10
The situation information is not limited to being generated only based on the input image from b. For example, information obtained from the input device 10a, for example, measurement of a keyboard typing rhythm,
The amount of movement of the chair and the position of the center of gravity of the person sitting on the chair can also be used as situation information.

【0084】キーボードのタイピングリズムを測定する
場合では、その基本周波数を測定するとスケールの異な
る二つの周波数が抽出される。高周波のリズムは単語の
スペルを入力する時のような早いリズムである。低周波
のリズムは、文章や文節ごとに考える間が入ることによ
り生ずるゆっくりしたリズムである。この二つのリズム
の基本周波数を測定しておき、その基本周波数からの乱
れを測定することで、仕事の進捗状況をリズムとして認
識することができる。
In the case of measuring the typing rhythm of the keyboard, when the fundamental frequency is measured, two frequencies with different scales are extracted. High frequency rhythms are fast rhythms like when you type a word spelling. The low-frequency rhythm is a slow rhythm that occurs when you think about each sentence or phrase. By measuring the fundamental frequencies of these two rhythms and measuring the disturbance from the fundamental frequencies, the progress of work can be recognized as a rhythm.

【0085】また、椅子の移動量や、椅子への重心位置
の変動を検出する場合は、操作者が集中していないこと
を示すもので、基本位置からのずれや、安定位置から変
化した頻度を測定することで、操作者の集中度を表す状
況として利用することができる。
Further, when detecting the movement amount of the chair or the variation of the position of the center of gravity to the chair, it indicates that the operator is not concentrated, and the deviation from the basic position or the frequency of change from the stable position. Can be used as a situation indicating the degree of concentration of the operator.

【0086】以上のように、各種のレベルの状況情報が
状況情報統合部26によって生成される。状況情報統合
部26は、変化のあった状況情報の時間的な差分情報を
パケットとして状況情報通信部12を介して送信する。
As described above, the status information integration section 26 generates status information of various levels. The status information integration unit 26 transmits the temporal difference information of the changed status information as a packet via the status information communication unit 12.

【0087】状況情報通信部12への情報の流し方(パ
ケットの形態)については、後述する第2の実施形態の
説明の中で様々な方法があることを詳しく説明する。
Regarding the method of sending information (packet form) to the status information communication unit 12, there will be described in detail that there are various methods in the description of the second embodiment described later.

【0088】次に、応用サービス提供部14の詳細につ
いて説明する。図10は応用サービス提供部14の基本
構成と信号の流れを示すブロック図である。図10に示
すように、応用サービス提供部14は、状況情報参照部
30、アプリケーション制御部32、アプリケーション
入出力部34、及びアクション作成部36によって構成
されている。各部30,32,34,36のそれぞれの
詳細な構成は、アプリケーションの内容によって、さま
ざまな構成をとる。
Next, details of the application service providing unit 14 will be described. FIG. 10 is a block diagram showing the basic configuration of the application service providing unit 14 and the signal flow. As shown in FIG. 10, the application service providing unit 14 includes a situation information reference unit 30, an application control unit 32, an application input / output unit 34, and an action creation unit 36. The detailed configuration of each of the units 30, 32, 34, 36 takes various configurations depending on the content of the application.

【0089】応用サービス提供部14は、状況情報参照
部30により状況情報通信部12と接続されている。ア
プリケーション制御部32は、応用サービス提供部14
の中枢をなす部分で、状況情報参照部30、アプリケー
ション入出力部34、アクション作成部36と接続され
ている。アクション作成部36は、出力情報通信部16
と接続されている。
The application service providing unit 14 is connected to the situation information communication unit 12 by the situation information reference unit 30. The application control unit 32 includes the application service providing unit 14
The central part is connected to the situation information reference unit 30, the application input / output unit 34, and the action creation unit 36. The action creation unit 36 is the output information communication unit 16
Is connected to

【0090】状況情報参照部30は、状況情報通信部1
2を流れる情報(図2に示すパケットの形式で伝送され
ている)を送受信する。状況情報参照部30は、宛先I
Dと自らのIDを比較して、一致していれば内容を取り
込んで記憶、更新する。あるいは、状況情報参照部30
は、入力部10に状況情報を問い合わせるときは、宛先
IDの部分を「入力部一般」に設定し、全ての入力部1
0を対象としてパケットを発信する。
The status information reference unit 30 is the status information communication unit 1.
2 transmits and receives the information (transmitted in the form of the packet shown in FIG. 2) flowing through 2. The situation information reference unit 30 determines the destination I
D is compared with its own ID, and if they match, the contents are fetched, stored, and updated. Alternatively, the situation information reference unit 30
When inquiring the input unit 10 about the status information, the destination ID part is set to "input part general", and all input parts 1
A packet is transmitted for 0.

【0091】アプリケーション制御部32は、状況情報
参照部30を介して得られる状況情報に基づいて、協同
作業の日時を調整するサービスを行なうための、サービ
ス処理あるいはデータ管理等を実行する。
The application control unit 32 executes service processing or data management for performing a service for adjusting the date and time of the cooperative work based on the situation information obtained via the situation information reference unit 30.

【0092】アプリケーション入出力部34は、アプリ
ケーションの制御に必要かつ状況情報でないような情
報、例えば協同作業の日程(日時)の調整の依頼あるい
は応答のためのメール等を状況情報通信部12とは別の
通信経路(図示せず)を介して入出力する。ただし、こ
こでの通信経路は、論理的には状況情報通信部12また
は出力情報通信部16とは別であっても、物理的に同じ
ネットワーク経路上であっても勿論良い。
The application input / output unit 34 communicates with the situation information communication unit 12 information that is necessary for controlling the application and is not situation information, such as e-mail for requesting or responding to adjustment of the schedule (date and time) of the cooperative work. Input and output via another communication path (not shown). However, the communication path here may be logically different from the status information communication unit 12 or the output information communication unit 16 or may be physically on the same network path.

【0093】アクション作成部36は、出力部18の選
択、出力部18への協同作業依頼のメッセージを表わす
出力情報の作成、出力部18への送信などを行なう。
The action creating section 36 selects the output section 18, creates output information representing a message for requesting the cooperative work to the output section 18, and sends the output information to the output section 18.

【0094】応用サービス提供部14は図10に示すよ
うな基本構成を持つが、応用アプリケーションの内容次
第で、構成要素の細かい構造は異なって来る。本実施形
態における応用サービス提供部14の詳細な構造につい
ては後述する。
The application service providing unit 14 has a basic structure as shown in FIG. 10, but the detailed structure of the constituent elements differs depending on the contents of the applied application. The detailed structure of the application service providing unit 14 in this embodiment will be described later.

【0095】次に、出力部18の詳細については説明す
る。
Next, details of the output unit 18 will be described.

【0096】出力部18は、出力情報通信部16を介し
て応用サービス提供部14からの送信信号(出力情報)
を受けて、例えばディスプレイの画面上におけるウィン
ドウ表示方法を更新したり、ウィンドウにメッセージ文
字列を表示する。あるいは、応用サービス提供部14
が、ある部屋のスイッチをオンする制御信号を出す構成
をとることも可能であり、この場合は部屋のスイッチが
出力部18にあたる。
The output unit 18 transmits a signal (output information) from the application service providing unit 14 via the output information communication unit 16.
In response to this, for example, the window display method on the screen of the display is updated or the message character string is displayed in the window. Alternatively, the application service providing unit 14
However, it is also possible to adopt a configuration in which a control signal for turning on a switch of a certain room is output, and in this case, the switch of the room corresponds to the output unit 18.

【0097】出力情報通信部16を流れるパケットも、
図12に示すように発信ID、宛先IDを持つ構造をと
り、宛先と発信元がわかる様になっている。出力部18
は、宛先IDが自分のIDであるパケットを受信して、
出力情報に応じて、文字、音、絵などのメディアに変換
し(あるいは機器の制御信号に変換し)出力する。
Packets flowing through the output information communication unit 16 are also
As shown in FIG. 12, a structure having a transmission ID and a destination ID is adopted so that the destination and the transmission source can be known. Output unit 18
Receives a packet whose destination ID is its own ID,
According to the output information, it is converted into media such as characters, sounds, and pictures (or converted into device control signals) and output.

【0098】次に、本実施形態の協同作業調整装置を実
現するための応用サービス提供部14の構成方法につい
て説明する。
Next, a method of configuring the application service providing unit 14 for realizing the cooperative work adjusting apparatus of this embodiment will be described.

【0099】図11は本実施例の応用サービス提供部1
4の詳細な構成図である。
FIG. 11 shows the application service providing unit 1 of this embodiment.
It is a detailed block diagram of FIG.

【0100】状況情報参照部30は、通信部30a、メ
ンバ情報制御部30b、メンバ情報記憶部30cから構
成され、状況情報通信部12において通信されるパケッ
トの、送信、受信、解読や、協同作業を依頼されたメン
バについての状況情報の管理、記憶、更新を行なう。
The status information reference unit 30 is composed of a communication unit 30a, a member information control unit 30b, and a member information storage unit 30c. The status information communication unit 12 transmits, receives, decodes, and cooperates with packets. Manages, stores, and updates the status information of the members requested to.

【0101】通信部30aは、要求パケットの生成、状
況情報パケットの受信、解釈を行なう。メンバ情報制御
部30bは、アプリケーション制御部32からの要求に
基づいて、メンバ情報記憶部30cに登録されているメ
ンバ情報(協同作業のメンバに関する状態を表わす情報
(状態テーブルに設定される))の送信、管理、更新な
どを行なう。メンバ情報記憶部30cは、アプリケーシ
ョン制御部32の当日時間管理部32cで必要となるメ
ンバ情報を記憶する。
The communication section 30a generates request packets, receives status information packets, and interprets them. The member information control unit 30b, based on the request from the application control unit 32, of the member information (information indicating the state regarding the members of the cooperative work (set in the state table)) registered in the member information storage unit 30c. Send, manage, update, etc. The member information storage unit 30c stores member information required by the current day time management unit 32c of the application control unit 32.

【0102】アプリケーション制御部32は、協同作業
情報記憶部32a、日程管理部32b、当日時間管理部
32c、スケジュール記憶部32dから構成される。ア
プリケーション制御部32は、アプリケーション入出力
部34を介して得られる依頼要求を記憶し、日程スケジ
ュールや、当日の時間調整を行なう機能を有する。
The application control unit 32 comprises a cooperative work information storage unit 32a, a schedule management unit 32b, a current day time management unit 32c, and a schedule storage unit 32d. The application control unit 32 stores a request request obtained via the application input / output unit 34, and has a function of adjusting a schedule and adjusting the time of the day.

【0103】アプリケーション入出力部34は、依頼入
力部34a、依頼応答部34b、スケジュール入力部3
4cから構成される。アプリケーション入出力部34
は、状況情報とは別の必要なデータの入出力や、作業依
頼を入力する部分である。依頼入力部34aにおいて作
業依頼を入力し、スケジュール入力部34cにおいてス
ケジュールデータを入力し、各入力に対する応答を依頼
応答部34bから行なう。
The application input / output unit 34 includes a request input unit 34a, a request response unit 34b, and a schedule input unit 3
4c. Application input / output unit 34
Is a part for inputting / outputting necessary data other than status information and for inputting work requests. A work request is input in the request input unit 34a, schedule data is input in the schedule input unit 34c, and a response to each input is made from the request response unit 34b.

【0104】アクション作成部36は、メッセージ作成
部36aにより構成され、出力情報通信部16を介して
依頼先の出力部18にメッセージを送出する。
The action creating section 36 is composed of a message creating section 36a, and sends the message to the output section 18 of the request destination via the output information communication section 16.

【0105】次に、図11に示す応用サービス提供部1
4の構成を用いた場合の、依頼の入力と日程の決定を行
なう処理の流れについて、図12に示すフローチャート
に基づき説明する。
Next, the application service providing unit 1 shown in FIG.
The flow of processing for inputting a request and determining a schedule when the configuration of 4 is used will be described based on the flowchart shown in FIG.

【0106】まず、各メンバが自分のスケジュールをス
ケジュール入力部34cを用いて入力する事から始まる
(ステップA1)。ここで入力するスケジュールは日程
レベルのスケジュールであり、例えば図13の様なスケ
ジュール表の中の自分の行(自分の人物インデックスに
該当する行)を埋めることになる。ここでは細かい時間
レベルのスケジュールを入力する必要は無く、休暇(休
暇予定R)や外出(外出予定g)など、オフィスから不
在となる時間帯を入力するだけでよい。
First, each member starts by inputting his or her own schedule using the schedule input section 34c (step A1). The schedule input here is a schedule-level schedule, and fills, for example, one's own line (a line corresponding to one's own person index) in the schedule table as shown in FIG. Here, it is not necessary to input a schedule of a fine time level, but it is sufficient to input a time period when the user is absent from the office, such as vacation (vacation schedule R) or going out (going out g).

【0107】各メンバのスケジュールは、アプリケーシ
ョン入出力部34のスケジュール入力部34cから入力
され、アプリケーション制御部32のスケジュール記憶
部32dに出力される。スケジュール表は、日付インデ
ックスに基づき日程テーブルとして記録されるので、週
間の予定でも月間、年間の予定でも何でも良い。入力さ
れた各メンバのスケジュールは、図13の日程テーブル
の形式で整理され、スケジュール記憶部32dに記憶さ
れる(ステップA2) 一方、協同作業の依頼者(むろんメンバに当人を含んで
いて構わない)は、依頼入力部34aに対して依頼する
協同作業の情報(協同作業条件)を入力する。例えば、
依頼する協同作業が会議の場合であれば、入力される依
頼情報には、期日、期日時間、メンバ(参加者)、打ち
合わせ内容、最小興行人数、作業の優先度、会議開催か
ら終了までの見込み時間(見通し所要時間)などが入力
される。依頼入力部34aは、入力した依頼情報を、協
同作業情報記憶部32aに記憶させる(ステップA
3)。
The schedule of each member is input from the schedule input section 34c of the application input / output section 34 and output to the schedule storage section 32d of the application control section 32. Since the schedule table is recorded as a schedule table based on the date index, any schedule such as weekly schedule, monthly schedule, and yearly schedule may be used. The inputted schedule of each member is organized in the form of the schedule table of FIG. 13 and stored in the schedule storage unit 32d (step A2). No) inputs the information (cooperative work condition) of the cooperative work requested to the request input unit 34a. For example,
If the requested collaborative work is a meeting, the request information that will be entered includes the due date, due date, members (participants), meeting details, the minimum number of people to perform, the priority of the work, and the likelihood from the holding of the meeting to the end. Time (forecast required time) etc. is entered. The request input unit 34a stores the input request information in the cooperative work information storage unit 32a (step A
3).

【0108】日程管理部32bは、依頼者からの依頼要
求の入力に応じて動作を開始し、日程調整処理を行な
う。日程調整処理の詳細については後述する。(ステッ
プA4)。
The schedule management section 32b starts its operation in response to the input of the request request from the client, and carries out the schedule adjustment process. Details of the schedule adjustment process will be described later. (Step A4).

【0109】次に、依頼応答部34bは、依頼入力部3
4aから入力された依頼内容が受託できるか否かを依頼
者に通知するための依頼応答を出力する。例えば、「承
りました」というメッセージであったり、「この条件で
は会議開催が不可能です」という応答であったりする
(ステップA5)。依頼が受託できない場合は、依頼内
容を入力可能な状態に復帰し、新たな依頼(あるいは修
正された依頼)を待つ(ステップA6)。
Next, the request responding section 34b has the request input section 3
A request response for notifying the requester whether the request content input from 4a can be accepted is output. For example, it may be a message "I accept" or a response "Meeting cannot be held under this condition" (step A5). If the request cannot be accepted, it returns to a state in which the request content can be input and waits for a new request (or a modified request) (step A6).

【0110】依頼要求は依頼入力部34aから入力され
るものとして説明しているが、実際にはネットワークを
構成している計算機のキーボードなどを通して入力され
ると考えて良い。情報と信号の流れを明確にするため
に、あえて依頼入力部34aを別にして説明している。
Although the request request is described as being input from the request input unit 34a, it may be considered that the request is actually input through a keyboard of a computer forming a network. In order to clarify the flow of information and signals, the request input unit 34a is explained separately.

【0111】また、本発明の構成では、各メンバの状況
情報を応用サービス提供部14が利用できるので、作業
の依頼者は、メンバを名前で特定するのでなく、状況情
報に対して属性で指定することもできる。例えば「今、
座席に座っている人を10人集める」「これから1時間
の間に10分以上電子メールを読んでいた人を5人集め
る」といった属性の指定が可能である。
Further, in the configuration of the present invention, since the application service providing unit 14 can use the status information of each member, the work requester does not specify the member by name but designates the status information by an attribute. You can also do it. For example, "Now
It is possible to specify attributes such as "collect 10 people who are seated" and "collect 5 people who have read e-mail for 10 minutes or more in the next hour".

【0112】日程管理部32bは、指定された属性に該
当する状況情報を抽出することで、指定された条件に一
致するメンバを求めることができる。
The schedule management unit 32b can obtain the member who matches the specified condition by extracting the situation information corresponding to the specified attribute.

【0113】日程管理部32bによる日程調整処理の結
果に基づき、会議の開催予定候補日が決定される。依頼
された会議が終了する時点まで、開催可能な開催候補日
が日程管理部32bに記憶され候補日待機状態となる。
日程管理部32bは、内部に持つカレンダカウンタによ
って日の経過を計数しており、カレンダカウンタが候補
日に一致した場合は、当日時間管理部32cに当日時間
調整処理を起動する制御信号を送信する(ステップA
7)。
Based on the result of the schedule adjustment processing by the schedule management unit 32b, the planned holding date of the conference is determined. Until the requested meeting ends, the candidate dates that can be held are stored in the schedule management unit 32b, and the candidate date standby state is set.
The schedule management unit 32b counts the number of days by a calendar counter that is internally provided. When the calendar counter matches the candidate date, the schedule management unit 32b transmits a control signal for activating the current day time adjustment process to the current day time management unit 32c. (Step A
7).

【0114】当日時間管理部32cは、日程管理部32
bからの起動制御信号を受信し、当日時間調整処理を行
う。当日時間調整処理の詳細については後述する(ステ
ップA8)。
The day time management section 32c is a schedule management section 32.
The start control signal from b is received, and the day time adjustment processing is performed. Details of the current day time adjustment process will be described later (step A8).

【0115】会議開催に適した時間になると、当日時間
管理部32cは、当日時間調整処理の処理結果に基づく
メッセージ作成処理起動信号をメッセージ作成部36a
に送信する(ステップA9)。
At the time suitable for holding the meeting, the current day time management unit 32c sends a message creation process start signal based on the processing result of the current day time adjustment process to the message creation unit 36a.
(Step A9).

【0116】制御信号を受信したメッセージ作成部36
aは、協同作業情報記憶部32aの情報をもとに各構成
メンバへの作業開始メッセージを作成し、出力情報通信
部16を介して、各構成メンバに例えば会議を開催する
旨メッセージを送信する。図14は、本発明の協同作業
調整装置を用いた際に、会議の開催時間が通知されてい
るイメージを示した様子である。図14では出力部18
としてディスプレイが用いられ、文字によってメッセー
ジが通知されている。スピーカなどの他の出力部18が
用いられても良い。
Message creation unit 36 that has received the control signal
a creates a work start message to each member based on the information in the cooperative work information storage unit 32a, and sends a message to each member via the output information communication unit 16 to the effect that a meeting will be held, for example. . FIG. 14 is a view showing an image in which a conference holding time is notified when the cooperative work adjusting apparatus of the present invention is used. In FIG. 14, the output unit 18
The display is used as, and the message is notified by characters. Other output unit 18 such as a speaker may be used.

【0117】以上が全体の処理の流れである。The above is the overall processing flow.

【0118】次に、日程調整処理について詳しく説明す
る。日程調整処理の流れを図15のフローチャートに基
づき説明する。
Next, the schedule adjustment process will be described in detail. The flow of the schedule adjustment process will be described based on the flowchart of FIG.

【0119】ネットワーク環境に接続された計算機を使
用する各メンバはそれぞれの予定をスケジュール入力部
34cを用いて入力している。この結果、スケジュール
記憶部32dには図13に示すような日程テーブルが記
憶されている。
Each member who uses the computer connected to the network environment inputs his or her schedule using the schedule input unit 34c. As a result, the schedule storage unit 32d stores a schedule table as shown in FIG.

【0120】依頼者の入力に応じて日程管理部32b
は、スケジュール記憶部32dの日程テーブルの中から
依頼メンバの行を抽出する(ステップB1)。この抽出
されたテーブルの情報を、日程管理部32bは、各時間
帯毎に論理和をとる処理を行い、誰の予定も入っていな
い時間帯を抽出する(ステップB2)。
Schedule management unit 32b according to the requester's input
Extracts the row of the requesting member from the schedule table of the schedule storage unit 32d (step B1). The schedule management unit 32b performs a process of taking the logical sum of the information of the extracted table for each time period, and extracts the time period in which no one is scheduled (step B2).

【0121】日程管理部32bは、抽出した時間帯の中
で、見通し所要時間より長い時間帯のみを抽出する(ス
テップB3)。ここで抽出される区間が会議を行うこと
が可能な時間帯(開催候補時間帯)である。
The schedule management unit 32b extracts only the time period longer than the required forecast time from the extracted time periods (step B3). The section extracted here is a time zone (candidate holding time zone) in which a conference can be held.

【0122】日程管理部32bは、この時間帯に優先順
位をつけ(依頼者が特殊な仕様を入力していない限り一
般には早い日ほど優先順位が高いことが多い)、開催候
補時間として当日時間管理部32cに送信する(ステッ
プB4)。
The schedule management unit 32b prioritizes this time zone (generally, the earlier the day, the higher the priority in general unless the client inputs special specifications), and the current day time as the candidate time for the event. It is transmitted to the management unit 32c (step B4).

【0123】依頼者の入力内容を満たす候補時間が存在
する場合は依頼受託となるが(ステップB5,B6)、
存在しない場合は、依頼非受託となる(ステップB
7)。この場合、依頼応答部34bから依頼者に対し
て、依頼非受託の旨のメッセージを伝達し、再度依頼入
力待ち状態に復帰する。
If there is a candidate time that satisfies the input contents of the requester, the request is accepted (steps B5 and B6).
If it does not exist, the request is not accepted (step B).
7). In this case, the request response unit 34b transmits a message notifying that the request is not accepted to the requester, and returns to the request input waiting state again.

【0124】この時点で開催候補日が決定するが、この
時点で協同作業の依頼メンバに、開催候補日や会議の内
容、会議の主旨などを通知するメッセージを送信するこ
とも可能である。この場合は、日程管理部32bからメ
ッセージ作成部36aに制御信号を送信することで、メ
ッセージ作成部36aが協同作業情報記憶部32aに記
憶された情報をもとに、構成メンバへのメッセージを作
成し、出力情報通信部16を通して各メンバに対応する
各出力部18へメッセージを伝達する。
Although the candidate date for holding is determined at this point, it is also possible to send a message for notifying the requesting member of the cooperative work about the candidate date for holding, the contents of the meeting, the purpose of the meeting, etc. at this time. In this case, the schedule managing unit 32b sends a control signal to the message creating unit 36a so that the message creating unit 36a creates a message to the member based on the information stored in the cooperative work information storage unit 32a. Then, the message is transmitted to each output unit 18 corresponding to each member through the output information communication unit 16.

【0125】以上が、日程調整処理の説明である。The above is the description of the schedule adjustment process.

【0126】次に、当日時間調整処理について詳しく説
明する。当日時間調整処理の流れを図16のフローチャ
ートに基づき説明する。
Next, the current day time adjustment process will be described in detail. The flow of the current day time adjustment process will be described based on the flowchart of FIG.

【0127】当日時間管理部32cは、日程管理部32
bからの開催候補日となったことを通知する制御信号を
受信すると、状況情報参照部30のメンバ情報制御部3
0bに、図17に示すような状態テーブルの参照を要求
する。状態テーブルは、メンバ情報記憶部30cに記憶
されるもので、状況情報通信部12を流れる状況情報に
応じて、各メンバ(人物インデックス)毎に現在の状況
を示す情報が更新される。
The day time management unit 32c is a schedule management unit 32c.
When the control signal for notifying that the candidate date has come from b is received, the member information control unit 3 of the situation information reference unit 30.
0b is requested to refer to the state table as shown in FIG. The status table is stored in the member information storage unit 30c, and the information indicating the current status is updated for each member (person index) according to the status information flowing through the status information communication unit 12.

【0128】状況情報通信部12には、何らかの状況情
報が変化した時に変化情報だけが流れているので、処理
の初期段階では状況情報の初期状態が存在しない。つま
りメンバ情報記憶部30cの内容が初期設定値のままで
あるので、メンバ情報制御部30bは、通信部30aに
当該メンバの初期状態の獲得を要求することで、通信部
30cが問い合わせ信号を作成し、状況情報通信部10
4を介して初期状態を獲得する(ステップC2)。
Since only the change information flows in the status information communication unit 12 when some kind of status information changes, there is no initial status of the status information in the initial stage of the process. That is, since the content of the member information storage unit 30c remains the initial setting value, the member information control unit 30b requests the communication unit 30a to acquire the initial state of the member, and the communication unit 30c creates an inquiry signal. The situation information communication unit 10
An initial state is acquired via 4 (step C2).

【0129】一方、状況情報通信部12には状況の変化
情報が流れているので、初期状態の獲得以後は、メンバ
情報制御部30bは、通信部30aが受信した情報に基
づきメンバ情報記憶部30cを更新する処理を続ければ
良い(ステップC1)。
On the other hand, since the status change information is flowing in the status information communication unit 12, after the acquisition of the initial state, the member information control unit 30b, based on the information received by the communication unit 30a, the member information storage unit 30c. It is sufficient to continue the process of updating (step C1).

【0130】状況情報通信部104を流れている状況情
報信号は、例えば「着席している・いない」「電話中で
ある・ない」「文章執筆中・そうではない」など、画像
入力部10bから入力された画像情報あるいは各種入力
デバイス10aから入力された入力情報に基づいて判別
された各種状況である。
The status information signal flowing through the status information communication unit 104 is from the image input unit 10b, for example, "seated / not seated", "on the phone / not seated", "writing sentence / not seated", etc. The various situations are determined based on the input image information or the input information input from the various input devices 10a.

【0131】応用サービス提供部14が提供するサービ
ス内容、あるいは依頼者の依頼内容によっては、より複
雑な状態の解釈が必要となる場合もある。例えば、「忙
しい仕事をしている・そうではない」「単調な仕事を続
けているので刺激を与えた方が良い・そうではない」な
どの解釈である。
Depending on the service contents provided by the application service providing unit 14 or the request contents of the client, it may be necessary to interpret a more complicated state. For example, the interpretation is "you are doing a busy job / not so" or "you need to be motivated because you are doing a monotonous job / not so".

【0132】アプリケーション制御部32は、状況情報
通信部12に流れる状況情報を状況情報参照部30を介
して受けとり、この状況情報から状態の解釈が可能とな
るように装置が構成されている。
The application control unit 32 receives the status information flowing in the status information communication unit 12 via the status information reference unit 30, and the apparatus is configured so that the status can be interpreted from the status information.

【0133】例えば、状況情報を特徴ベクトルとして、
状態の解釈を出力パターンとするように、学習型ニュー
ラルネットワークやパターン認識理論を応用して装置を
構成すれば良い。特徴ベクトルの入力から、パターン出
力を得るための構成方法は、例えば「舟久保登”パター
ン認識”共立出版(1991)」「飯島泰蔵”パターン
認識理論”森北出版(1989)」などに詳しい。ま
た、状況の解釈を決定論的に処理するのが難しければ、
暖味性を持たせたデータ属性の処理を行う方法も、例え
ば「馬場”ファジィ・データベースの現状と動向”Adva
nced Database System Symposium '90, pp.207-214(198
9)」において記載されている。
For example, with situation information as a feature vector,
The device may be configured by applying a learning type neural network or pattern recognition theory so that the interpretation of the state is used as the output pattern. The construction method for obtaining the pattern output from the input of the feature vector is detailed in, for example, "Noboru Funakubo" Pattern Recognition "Kyoritsu Shuppan (1991)""TaisouIijima""Pattern Recognition Theory""Morikita Shuppan (1989)". Also, if it is difficult to handle the interpretation of the situation deterministically,
A method of processing data attributes with warmth is also described in, for example, “Baba” Fuzzy Database Current Status and Trends “Adva
nced Database System Symposium '90, pp.207-214 (198
9) ”.

【0134】ここでは、特徴ベクトルの重みつき線形和
に基づく状況の解釈方法を例として説明する。
Here, a method of interpreting a situation based on a weighted linear sum of feature vectors will be described as an example.

【0135】当日時間管理部32cは、これらの状況情
報から、各個人の会議を受け入れる可能性を示す評価値
として依頼受託評価値Pを計算する。依頼受託評価値P
は前述した状態の判別値(状況情報)を用いて、式
(1)の重み付き線形和により計算される。
The day time management unit 32c calculates the request acceptance evaluation value P as an evaluation value indicating the possibility of accepting the meeting of each individual from these situation information. Requested consignment evaluation value P
Is calculated by the weighted linear sum of Expression (1) using the discriminant value (situation information) of the state described above.

【0136】[0136]

【数1】 [Equation 1]

【0137】式(1)式において、x(i)はi番目の
状態の解釈結果に応じて“1”または“0”の値をとる
関数であり、例えば「着席している・いない」を解釈し
た場合のxの値は“1”で「着席しているとき」、
“0”で「着席していないとき」を表わす。
In the equation (1), x (i) is a function that takes a value of "1" or "0" depending on the interpretation result of the i-th state. For example, "sitting / not sitting" When interpreted, the value of x is "1" and "when seated",
"0" represents "when not seated".

【0138】同様に「電話中である・ない」「文章執筆
中である・ない」なども同様に1または0の値をとる。
Similarly, the values "1/0 not being used" and "While writing / not writing" are also taken.

【0139】式(1)式において、a(i)はi番目の
状態の解釈結果に与える重みであって、i=1からNま
でのN個の状態の相対的重みを与える値である。
In the equation (1), a (i) is a weight given to the interpretation result of the i-th state, and is a value giving the relative weight of N states from i = 1 to N.

【0140】N個の重みa(i)(i=1,…,N)
は、各人の協同作業を受け入れる可能性が高い場合に、
依頼受託評価値Pが大きくなるようにそれぞれ調整す
る。調整は実験的、経験的に設定すれば良い。
N weights a (i) (i = 1, ..., N)
Is likely to accept the collaborative work of each person,
Adjustments are made so that the commissioned evaluation value P increases. The adjustment may be set experimentally and empirically.

【0141】例えば、着席している時は、着席していな
いときより、出力したメッセージが伝わる可能性は高く
作業に参加できる可能性は高い。したがって、重みは正
の値になる。逆に、電話中である場合は、電話中で無い
場合より、作業に参加できる可能性は低い。したがっ
て、重みは負の値になる。また、例えば、視点移動が少
なくディスプレイの文字を凝視している場合は、仕事に
集中している可能性が高いので、参加できる可能性は低
くなる。このように、画像情報には、各メンバの仕事状
況を推測できるデータが多く存在し、それらが、状況情
報として伝送されてくるので、メンバの現在の状態を把
握することができる。
For example, when the user is seated, the output message is more likely to be transmitted and the possibility of participating in the work is higher than when the user is not seated. Therefore, the weight has a positive value. On the contrary, when the user is on the phone, it is less likely to be able to participate in the work than when the user is not on the phone. Therefore, the weight has a negative value. In addition, for example, when there is little movement of the viewpoint and the user is gazing at the characters on the display, it is highly possible that he or she concentrates on the work, and therefore the possibility of participation is low. As described above, the image information includes a large amount of data capable of estimating the work status of each member, and these data are transmitted as status information, so that the current status of the member can be grasped.

【0142】また、もし、全く作業に参加できる可能性
がない場合(例えば席をはずしていて居所が不明な場合
などが考えられる)は、依頼受託評価値Pが“0”とな
るように調整する。
If there is no possibility of participating in the work (for example, it is possible that the user is out of the seat and the whereabouts are unknown), the commissioned evaluation value P is adjusted to be "0". To do.

【0143】当日時間管理部32cによって計算された
依頼受託評価値Pは、メンバ情報制御部30bを介して
メンバ情報記憶部30cに状態テーブルのデータとして
記憶される。メンバの状況情報に変化がある度に、状況
情報参照部は30は、当日時間管理部32cにメンバ情
報の依頼受託評価値Pの更新を要求する。当日時間管理
32cは、変化のあったメンバの依頼受託評価値Pを計
算する(ステップC3)。ステップC2の後、作業開始
のメッセージを作成処理に移行するまでは、順次、全メ
ンバの依頼受託評価値Pについて計算される。
The request acceptance evaluation value P calculated by the current day time management unit 32c is stored in the member information storage unit 30c via the member information control unit 30b as state table data. Each time there is a change in the member status information, the status information reference unit 30 requests the current day time management unit 32c to update the request trust evaluation value P of the member information. The current time management 32c calculates the request acceptance evaluation value P of the changed member (step C3). After the step C2, the request acceptance evaluation values P of all members are sequentially calculated until the work start message is transferred to the creation processing.

【0144】当日時間管理部32cによる依頼受託評価
値Pについての計算結果に応じて、メンバ情報記憶部3
0cの依頼受託評価値(状態テーブル)が更新される
(ステップC4)。
In accordance with the calculation result of the request acceptance evaluation value P by the day time management unit 32c, the member information storage unit 3
The request acceptance evaluation value (state table) of 0c is updated (step C4).

【0145】次に、当日時間管理部32cは、作業(会
議)を開催すべきか否かを判断するための開催評価値V
の計算を行なう(ステップC5)。会議の開催評価値V
の計算は以下のように行う。
Next, the day time management unit 32c determines the holding evaluation value V for judging whether or not the work (conference) should be held.
Is calculated (step C5). Conference evaluation value V
Is calculated as follows.

【0146】各個人の依頼受託評価値Pは式(1)に基
づいて求められている。会議の構成メンバがM人いると
して、各メンバの依頼受託評価値をP(j) (j=1,
…,M)と表す。この依頼受託評価値の重み付き線形和
をとり、これを会議開催をすべきか否かを判断するため
適当性を示す評価値Vとし、開催評価値Vと呼ぶ。開催
評価値Vは式(2)により計算される。
The request acceptance evaluation value P of each individual is obtained based on the equation (1). Assuming that there are M members in the conference, the commissioned evaluation value of each member is P (j) (j = 1,
..., M). A weighted linear sum of the commissioned evaluation values is taken, and this is set as an evaluation value V indicating suitability for determining whether or not to hold a meeting, and is called a holding evaluation value V. The event evaluation value V is calculated by the equation (2).

【0147】[0147]

【数2】 [Equation 2]

【0148】W(j) (j=1,…,M)は、会議を構成
するメンバの参加必要度に応じて設定する重みである。
全員が同等な必要度であれば全てのjに対して一定値
(例えば1)を設定すればよい。あるいは、例えばグル
ープのリーダーがどうしても参加する必要があれば、リ
ーダーにかかる重みwは大きい値となろう。あるいは、
協同作業が会議でなく、例えば荷物運びであれば若いメ
ンバの重みを大きくするなどの応用が考えられる。
W (j) (j = 1, ..., M) is a weight set according to the necessity of participation of the members making up the conference.
If all of them have the same degree of necessity, a fixed value (for example, 1) may be set for all j. Alternatively, for example, if the leader of the group absolutely needs to participate, the weight w applied to the leader will be a large value. Or,
If the collaborative work is not a meeting but, for example, carrying luggage, an application such as increasing the weight of young members can be considered.

【0149】この重みは、協同作業依頼者が設定しても
いいし、慣例によく従うように予め調整しておくことも
可能であるし、協同作業の依頼内容から自動設定するこ
とが可能であれば(例えば同メンバで前回利用した重み
を再利用するなどの方法がある)、そのように決めれば
良い。依頼者の入力も、自動設定値もなければ、全員を
一定値にすれば良い。
This weight may be set by the collaborative work requester, may be adjusted in advance so as to follow the custom, or may be automatically set from the contents of the collaborative work request. If there is (for example, there is a method of reusing the weight previously used by the same member), it may be determined as such. If there is no requester's input and there is no automatic setting value, all of them should be set to a fixed value.

【0150】次に、当日時間管理部32cは、開催評価
値Vと比較するための評価判断値を用意する(ステップ
C6)。この評価判断値は時間変化する値とする。この
評価判断値をしきい値として、開催が適切か否か判定す
る。以後の説明では、このしきい値をTと表す。
Next, the day time management unit 32c prepares an evaluation judgment value for comparison with the holding evaluation value V (step C6). This evaluation judgment value is a value that changes with time. Using this evaluation judgment value as a threshold, it is judged whether or not the holding is appropriate. In the following description, this threshold value is represented as T.

【0151】図18には評価判断値(しきい値T)を説
明するための一例を示している。
FIG. 18 shows an example for explaining the evaluation judgment value (threshold value T).

【0152】図18(e)において、縦軸は開催評価値
Vの軸、横軸は時間軸である。時間軸方向には、日程管
理部32bから送信された開催候補時間帯を時間軸原点
から時間順に並べる。
In FIG. 18 (e), the vertical axis is the holding evaluation value V axis and the horizontal axis is the time axis. In the time axis direction, the holding candidate time zones transmitted from the schedule management unit 32b are arranged in time order from the time axis origin.

【0153】例えば、図18(a)に示すように開催候
補時間帯が8:00から14:00であったとする。こ
こでは、図18(b)に示すように会議の見通し所要時
間が2時間なので、会議は8:00から12:00まで
の間に始めなければ、全員の参加可能な時間内に終了し
ない。よって、図18(c)に示すように、8:00か
ら12:00までの時間を開始候補帯として抽出し、図
18(e)に示す時間軸のO(原点)から配置する。
For example, as shown in FIG. 18A, it is assumed that the holding candidate time period is from 8:00 to 14:00. Here, as shown in FIG. 18 (b), since the time required for the conference to be in sight is 2 hours, unless the conference is started between 8:00 and 12:00, the conference will not be completed within the time in which everyone can participate. Therefore, as shown in FIG. 18C, the time from 8:00 to 12:00 is extracted as a start candidate zone and arranged from O (origin) on the time axis shown in FIG. 18E.

【0154】図18(e)において、会議終了の期日時
間を横軸方向の終端Eとし、会議の見通し所要時間分を
時間的に遡った位置Dとする。Dと評価値軸上のSの間
に直線を引き、これをしきい値Tとする。Sの高さは各
メンバの依頼受託評価値Pを満点にした時の開催評価値
Vの値である。
In FIG. 18 (e), the deadline time of the end of the conference is the end E in the horizontal axis direction, and the line-of-sight required time of the conference is the position D traced back in time. A straight line is drawn between D and S on the evaluation value axis, and this is set as a threshold value T. The height of S is the value of the holding evaluation value V when the commissioned evaluation value P of each member is set to the maximum.

【0155】当日時間管理部32cは、作動している時
間内では開催評価値Vを計算し、Vがしきい値Tと等し
いかそれ以上の時点で、会議開催可能と判断する(ステ
ップC7)。
The day time management unit 32c calculates the holding evaluation value V within the operating time, and judges that the meeting can be held when V is equal to or greater than the threshold value T (step C7). .

【0156】図18に示すしきい値Tは、時間的に早い
ほど高く、遅いほど低い。従って、時間的に余裕のある
間は、開催評価値Vが十分高くなるまで開催可能と判断
しないが、時間的余裕がなくなってくると開催可能の判
断が容易になされる。また、期日より、会議所用見込み
時間前までには確実に開催可能の判断をする。
The threshold value T shown in FIG. 18 is higher as the time is earlier and lower as the time is later. Therefore, while there is enough time, it is not determined that the event can be held until the holding evaluation value V becomes sufficiently high, but when the time becomes insufficient, the determination that the event can be held is facilitated. Also, from the deadline, make sure that the event can be held before the expected time for the conference.

【0157】また、図18(e)に示す例では、Sから
Dに直線的にしきい値Tを変化させたが、半減期を8時
間などと設定し、減少型の指数関数で変化させても良
い。この半減期は構成メンバの経験に応じて設定すれば
良い。あるいは、午前中に優先的に会議が設定される方
が望ましい場合は、午前中のしきい値Tが低めになるよ
うに折れ線的に設定すれば良い。この、しきい値Tの時
間変化のさせ方は、環境を利用するメンバの慣習や経験
に基づいて決めれば良いのである。ただ減少関数を使
い、期限より見通し時間分遡った時点までには必ず会議
が開かれる様に設定する必要がある。
In the example shown in FIG. 18 (e), the threshold value T is linearly changed from S to D. However, the half-life is set to 8 hours or the like and the threshold value T is changed by a decreasing exponential function. Is also good. This half-life may be set according to the experience of the constituent members. Alternatively, if it is desirable that the conference is preferentially set in the morning, the threshold value T in the morning may be set in a polygonal line so as to be low. The method of changing the threshold value T with time may be determined based on the customs and experience of members who use the environment. However, it is necessary to use a decreasing function and set it so that the meeting is held by the time when the forecast time goes back from the deadline.

【0158】もし、最小興行人数の設定がなされている
場合は、依頼受託評価値Pが0でないメンバの人数が、
最小興行人数を超えていることを確認する処理を追加す
る(ステップC8)。
If the minimum number of people to entertain is set, the number of members whose request trust evaluation value P is not 0 is
A process for confirming that the number of persons who have performed is exceeded is added (step C8).

【0159】以上のステップで、当日時間管理部32c
は、協同作業を開始するのに適した時間を判断すること
ができる(会議招集システムの場合は会議開催時間が決
まる)。
With the above steps, the day time management unit 32c
Can determine the appropriate time to start the collaborative work (meeting time is determined in the case of the convening system).

【0160】協同作業の開始時間を決定すると、当日時
間管理部32cは、メッセージ作成部36aに制御信号
を送信する。
When the start time of the cooperative work is determined, the current day time management unit 32c sends a control signal to the message creation unit 36a.

【0161】制御信号を受信したアクション作成部36
は、協同作業情報記憶部32aの情報をもとに各構成メ
ンバへの作業開始メッセージを作成し、出力情報通信部
16を通してメンバがいる出力部18に送信する(ステ
ップC9)。
The action creating section 36 that has received the control signal
Creates a work start message to each member based on the information in the cooperative work information storage unit 32a, and sends the work start message to the output unit 18 including the members through the output information communication unit 16 (step C9).

【0162】本実施形態の場合、出力部18は計算機デ
ィスプレイや計算機に接続されたスピーカとすると、入
力部10と出力部18は対になっている。従って、メッ
セージ作成部36aは、状況情報変換部10cからの状
況情報により得られる個人認証結果に基づき、該当する
メンバがいる計算機の出力部18宛てにメッセージを送
信する(ステップC9)。この場合、メッセージの送信
先のメンバが本来いるべき場所(計算機)にいなくて
も、ネットワーク環境中の何れかの出力部18が存在す
る場所にいればメッセージの伝達が可能である。
In the case of this embodiment, assuming that the output unit 18 is a computer display or a speaker connected to the computer, the input unit 10 and the output unit 18 are paired. Therefore, the message creating unit 36a sends a message to the output unit 18 of the computer having the corresponding member based on the personal authentication result obtained from the situation information from the situation information converting unit 10c (step C9). In this case, even if the member to whom the message is to be sent is not in the place (computer) where it should be, the message can be transmitted as long as the output unit 18 in the network environment exists.

【0163】また、メッセージの作成に時間がかかる場
合は、候補日程が決定した段階で、伝達メッセージの予
め作成できる部分をメッセージ作成部36aが作成して
おくことで、当日時間管理部32cの制御信号は発信タ
イミングの制御だけに用いる方法をとることも可能であ
る。
If it takes a long time to create a message, the message creating unit 36a creates a part of the transmission message that can be created in advance at the stage when the candidate schedule is determined. It is also possible to adopt a method in which the signal is used only for controlling the transmission timing.

【0164】以上詳しく説明してきたが、本発明を利用
する事により、時間的に細かいスケジュールを入力する
事なく、協同作業の参加メンバの現在の状況に応じて開
始時間を調整することが可能な協同作業調整装置を構成
する事ができる。
As described in detail above, by using the present invention, the start time can be adjusted according to the current situation of the participating members of the cooperative work without inputting a fine schedule in terms of time. A collaborative work adjustment device can be configured.

【0165】次に、第2の実施形態として、情報の流し
方の変形例について説明する。
Next, as a second embodiment, a modified example of the information flow will be described.

【0166】第1の実施の形態では、状況情報通信部1
2を流れる状況情報は、入力部10の状況情報に変化が
起きた場合に変化分に限って通信される形態で説明して
きた。この際、通信経路上(状況情報通信部12)に流
れるパケットの形式は図2に示す構造とした。
In the first embodiment, the situation information communication unit 1
The situation information flowing through 2 has been described in the form of being communicated only when the situation information of the input unit 10 has changed. At this time, the format of the packet flowing on the communication path (situation information communication unit 12) has the structure shown in FIG.

【0167】この他にも通信される情報の形態を様々に
変形させることができる。
Besides this, the form of the information to be communicated can be variously modified.

【0168】(1)ブロードキャストタイプ これは、状況情報の変化の有無に関わらず、ある一定の
時間間隔で状況情報の構造体が伝送される形態である。
この場合、例えば図19に示す様な構造化されたパケッ
トが、例えば100分の1秒おきに通信経路上を流れ
る。図19の構造化されたパケットの内容は、例えば図
17に示す状態テーブルの個人ごとの内容に対応する。
(1) Broadcast type This is a form in which the structure of the status information is transmitted at a certain time interval regardless of whether the status information has changed.
In this case, a structured packet as shown in FIG. 19, for example, flows on the communication path every 1/100 second. The structured packet contents of FIG. 19 correspond to the individual contents of the state table shown in FIG. 17, for example.

【0169】この形態の場合、状況情報参照部30は、
記憶部(図11のメンバ情報記憶部30c)を有する必
要がなく、通信部30aが分解した状況情報中の情報を
アプリケーション制御部32が利用すれば良い。
In this case, the status information reference section 30
It is not necessary to have a storage unit (member information storage unit 30c in FIG. 11), and the application control unit 32 may use the information in the situation information disassembled by the communication unit 30a.

【0170】(2)要求と応答タイプ 応用サービス提供部14が解釈に必要な状況情報を、状
況情報通信部12を介して入力部10に問い合わせる形
態である。この場合は、応用サービス提供部14の状況
情報参照部30の内部(例えば通信部30a)では、ア
プリケーション制御部32の要求に従って、必要な情報
を問い合わせるパケットを作成し、状況情報通信部12
に送信する。
(2) Request and Response Type In this mode, the application service providing unit 14 inquires the input unit 10 via the situation information communication unit 12 about the situation information necessary for interpretation. In this case, inside the situation information reference unit 30 of the application service providing unit 14 (for example, the communication unit 30a), a packet for inquiring necessary information is created according to a request from the application control unit 32, and the situation information communication unit 12
Send to

【0171】(3)情報差分タイプ この形態は、第1の実施の形態で説明して来たパケット
の形態である。
(3) Information Difference Type This form is the form of the packet described in the first embodiment.

【0172】何れの形態にしろ、応用サービス提供部1
4が状況情報を利用できる通信形式であれば、本発明を
応用することは容易である。
In any form, the application service providing unit 1
If 4 is a communication format that can use status information, the present invention can be easily applied.

【0173】次に、第3の実施の形態として、状況情報
の入力対象が一人の場合について説明する。
Next, as a third embodiment, the case where the input object of the situation information is one person will be described.

【0174】第1の実施の形態では、協同作業として複
数のメンバが参加する特に会議の招集について説明した
が、状況情報を検出する対象が一人の場合であっても、
本発明の構成を応用することができる。この場合、協同
作業を行うのが一人の場合と解釈すればよいだけであ
る。例えば、到着と同時に電子メールが読まれる可能性
を、従来の方式よりも高くする電子メールシステムを構
成することができる。
In the first embodiment, the convening of a meeting in which a plurality of members participate as a collaborative work has been described. However, even when the target for detecting the situation information is one,
The configuration of the present invention can be applied. In this case, it is only necessary to interpret it as the case where one person performs the cooperative work. For example, it is possible to configure an electronic mail system that makes it more likely that an electronic mail will be read upon arrival than in conventional methods.

【0175】以下、到着すると同時に相手が電子メール
を読む可能性が従来の方法より高くなる電子メールシス
テムの実現方法について説明する。
Now, a method of realizing an electronic mail system in which the possibility that the other party will read the electronic mail upon arrival will be higher than that of the conventional method will be described below.

【0176】第1の実施の形態では、アプリケーション
制御部32の内部手続きとして、依頼受託評価値Pを定
義し、式(1)に基づいて重みつき線形和によって求め
た。第3の実施形態では、依頼受託評価値Pに変わっ
て、文章を読む可能性の高い状況で数値が高くなる評価
値を導入する。
In the first embodiment, the request acceptance evaluation value P is defined as an internal procedure of the application control unit 32, and it is obtained by the weighted linear sum based on the equation (1). In the third embodiment, instead of the request acceptance evaluation value P, an evaluation value that increases in numerical value in a situation where there is a high possibility of reading a sentence is introduced.

【0177】届いた電子メールをその場で読む可能性
は、例えばディスプレイに視線を向けている状況の方が
高いし、タイピングがリズム良く行われている時は文章
執筆に集中している可能性があるので読まれる可能性は
低い。一方、タイピングが止まり、体の姿勢もあまり変
わらず、じっとディスプレイを見つめている時は、何か
考え事をしている状況なので、読まれる可能性は高い。
The possibility of reading the received e-mail on the spot is higher, for example, in the situation where the eyes are directed to the display, and when the typing is performed with a good rhythm, it may be concentrated on writing the text. It is unlikely that it will be read. On the other hand, when typing is stopped and the posture of the body does not change much, and when the user is gazing at the display, he / she is thinking about something and is likely to be read.

【0178】このように、画像入力部10bから入力さ
れる画像情報の中には、電子メールが読まれる可能性を
ある程度推測するための情報が多数含まれている。この
情報を個人性も含めて、パターン認識手法あるいはファ
ジー測度手法を用いて推測することは可能である。
As described above, the image information input from the image input unit 10b includes a large amount of information for estimating the possibility of reading an electronic mail to some extent. It is possible to infer this information, including individuality, using pattern recognition methods or fuzzy measure methods.

【0179】以上のことから、第3の実施形態の処理の
流れについて、図20に示すフローチャートを参照しな
がら説明する。
From the above, the flow of processing of the third embodiment will be described with reference to the flowchart shown in FIG.

【0180】まず、応用サービス提供部14のアプリケ
ーション入出力部34から電子メールの送信要求(宛
先、本文)を入力する(ステップD1)。アプリケーシ
ョン制御部32は、状況情報参照部30からメンバ情報
の初期状態である状況情報を抽出する(ステップD2〜
ステップD4)。
First, a request for sending an electronic mail (address, text) is input from the application input / output unit 34 of the application service providing unit 14 (step D1). The application control unit 32 extracts the status information, which is the initial state of the member information, from the status information reference unit 30 (step D2).
Step D4).

【0181】予め調整された式(1)の係数に基づいて
依頼受託評価値を計算する(ステップD5)。ここで
の、依頼受託評価値は、前述のように、文章を読む可能
性の高い状況で数値が高くなる。
The request acceptance evaluation value is calculated based on the coefficient of the equation (1) adjusted in advance (step D5). As described above, the request acceptance evaluation value has a high value in a situation in which the text is likely to be read.

【0182】依頼受託評価値が予め設定したしきい値T
より大きい場合、アプリケーション制御部32は、アク
ション作成部36に、メール到着のメッセージを表示す
るための制御信号を送信する(ステップD6,D7)。
例えば、アイコン型の小さなマークを、ディスプレイの
画面中に表示させる。
The threshold value T which is the preset value of the commissioned evaluation value
If it is larger, the application control unit 32 sends a control signal for displaying the message of mail arrival to the action creation unit 36 (steps D6 and D7).
For example, a small icon-shaped mark is displayed on the screen of the display.

【0183】次に、第4の実施の形態として、アプリケ
ーションの複数化について説明する。
Next, as a fourth embodiment, a plurality of applications will be described.

【0184】ここで説明する実施の形態ではアプリケー
ション実行手段の複数化について詳しく説明する。
In the embodiment described here, a plurality of application executing means will be described in detail.

【0185】本発明の基本構成を示した図1では、複数
の入力部10(N個)、複数の応用サービス提供部14
(M個)、出力部18(L個)ある。本発明の構成に従
い応用サービス提供部14が複数存在する場合は、複数
の応用サービス提供部14同士で解釈結果を利用し合う
状況が発生する。
In FIG. 1 showing the basic configuration of the present invention, a plurality of input units 10 (N units) and a plurality of application service providing units 14 are provided.
(M) and output section 18 (L). When there are a plurality of application service providing units 14 according to the configuration of the present invention, a situation occurs in which the plurality of application service providing units 14 use the interpretation results.

【0186】例えば、人物認証処理は第1の実施の形態
では各入力部10の状況情報変換部10cで行った。人
物認証処理は参照データも多く、入力部10にとって負
荷の大きい処理である。いま、新たな形態として、入力
部10の処理量を減らすために、この人物認証処理を応
用サービス提供部14の1つが集中的に行う構成を取
る。つまり、処理の一元化を図る。
For example, the person authentication process is performed by the situation information conversion unit 10c of each input unit 10 in the first embodiment. The person authentication process is a process with a large load on the input unit 10 because there is much reference data. Now, as a new mode, in order to reduce the processing amount of the input unit 10, one of the application service providing units 14 intensively performs this person authentication process. That is, the processing is unified.

【0187】この構成にはいつか利点がある。第1の利
点は、人物認証処理のために必要なデータ量は膨大であ
るが、このデータを一元管理できるので、更新、及び修
正が容易になるということ。第2の利点は、「同一人物
は複数箇所に同時に存在することはない」という知識を
利用できるので、効率的に人物認証処理を実行できるこ
と、である。
There are some advantages to this configuration. The first advantage is that the amount of data required for person authentication processing is enormous, but since this data can be centrally managed, updating and correction are easy. The second advantage is that since the knowledge that "the same person does not exist in a plurality of places at the same time" can be used, the person authentication process can be executed efficiently.

【0188】しかし、人物認証処理の結果が必要な応用
サービス提供部14は多く存在する。例えば第1の実施
の形態の協同作業調整装置でも、第3の実施の形態の電
子メールシステムでも「誰がどこにいる」という情報が
必要であるから、人物認証処理は欠かせない。
However, there are many application service providing units 14 that require the result of the person authentication process. For example, the person authentication process is indispensable because the information "who is where" is required in both the cooperative work adjusting apparatus of the first embodiment and the electronic mail system of the third embodiment.

【0189】しかしながら、複数の応用サービス提供部
14で同一の処理が行われることは効率的ではない。
However, it is not efficient that the same processing is performed by a plurality of application service providing units 14.

【0190】このため、人物認証処理が応用サービス提
供部14で解釈結果(この場合は人物認証処理処理結
果)を共有できる構成が必要である。
Therefore, it is necessary that the application service providing unit 14 can share the interpretation result of the person authentication processing (in this case, the person authentication processing result).

【0191】以上の例のように、本発明の構成の中に、
応用サービス提供部14が複数接続されてくると、共通
するデータや中間処理結果が発生する。全体の効率を上
げるためには、複数の応用サービス提供部14同士でデ
ータを転送しあう仕組みが必要になる。
As in the above example, in the structure of the present invention,
When a plurality of application service providing units 14 are connected, common data and intermediate processing results are generated. In order to improve the overall efficiency, it is necessary to have a mechanism for transferring data between a plurality of application service providing units 14.

【0192】複数の応用サービス提供部14同士でデー
タを転送し合う仕組みを作るためには、例えば人物認証
処理の結果の共有化を例にして説明すれば、以下のよう
にすれば実現できる。
In order to create a mechanism for transferring data between a plurality of application service providing sections 14, for example, sharing of the result of person authentication processing will be described as an example, and it can be realized as follows.

【0193】いま、第1の実施の形態で説明したよう
に、状況情報通信部12を流れるパケットは、データの
変化時にだけ伝送される情報差分タイプのパケットで、
形式は図2の構成であるとする。
As described in the first embodiment, the packet flowing through the status information communication section 12 is an information difference type packet which is transmitted only when the data changes.
It is assumed that the format has the configuration shown in FIG.

【0194】人物認証処理を行った応用サービス提供部
は、宛先IDを「不定(全ての応用サービス提供部14
宛て)」にして、状況情報通信部12にパケットを送信
する。応用サービス提供部14の構成要素である状況情
報参照部30には、転送されたパケットの宛先IDが
「不定」であるから、内容IDを調べ、人物認証処理の
結果を示すIDであれば、その情報を取り込み、自分の
解釈部の入力情報として使用する。
The application service providing unit that has performed the person authentication process sets the destination ID to “undefined (all application service providing units 14
Address) ”and transmits the packet to the status information communication unit 12. Since the destination ID of the transferred packet is “indefinite”, the situation information reference unit 30 which is a component of the application service providing unit 14 checks the content ID and if the ID indicates the result of the person authentication process, Take that information and use it as input to your interpreter.

【0195】人物認証処理のように、複数の応用サービ
ス提供部14で参照されることが明かなデータは本発明
の全体システム(図1)を作成した初期段階から、一つ
の応用サービス提供部14として接続することが可能だ
か、これと別の立ち上げ形態もとることが可能である。
As in the case of person authentication processing, the data that is clearly referred to by a plurality of application service providing units 14 is one application service providing unit 14 from the initial stage of creating the entire system (FIG. 1) of the present invention. It is possible to connect as, or it is possible to take a startup form different from this.

【0196】例えば、本発明の全体システム(図1)に
新たな応用サービス提供部14を接続した時に、当該応
用サービス提供部14が自己の処理プロセスを再帰的に
分割して、一部の処理プロセスを別の応用サービス提供
部14として独立させるという構成をとることができ
る。この新たに分割された応用サービス提供部14を
「子の応用サービス提供部」と呼び、母体となった応用
サービス提供部14を「親の応用サービス提供部」と呼
ぶ。再帰的に分割された場合は、複数の「子の応用サー
ビス提供部」が起動されることになる。
For example, when a new application service providing unit 14 is connected to the entire system of the present invention (FIG. 1), the application service providing unit 14 recursively divides its own processing process and executes a part of the processing. The process can be configured to be independent as another application service providing unit 14. The newly divided application service providing unit 14 is referred to as a “child application service providing unit”, and the parent application service providing unit 14 is referred to as a “parent application service providing unit”. In the case of recursive division, a plurality of "child application service providing units" are activated.

【0197】プロセスが分割しても、「人物認証処理を
集中的に行う応用サービス提供部」の説明と同様に、状
況情報通信部12を介して情報をやりとりすることによ
り、親と子の応用サービスが一体の場合と同様な処理を
行うことができる。
Even if the process is divided, as in the description of the "application service providing section for centrally performing person authentication processing", by exchanging information via the situation information communication section 12, application of parent and child can be achieved. It is possible to perform the same processing as when the services are integrated.

【0198】このように再帰的に分割する応用サービス
提供部14が全体のシステム(図1)に複数接続されて
くると、子の応用サービス提供部を共有できる確率が増
加し、全体の処理量を抑えることができるようになる。
When a plurality of application service providing units 14 that recursively divide are connected to the entire system (FIG. 1), the probability that child application service providing units can be shared increases, and the total processing amount is increased. Can be suppressed.

【0199】親の応用サービス提供部は、自らの処理プ
ロセスを分離分割する前に、状況情報通信部12を流れ
るパケットの内容IDを予め規定した時間調査し、分離
しようとしている子の応用サービス提供部と同じ処理プ
ロセスである応用サービス提供部14が、全体のシステ
ムに存在しないことを確認してから、プロセスを分離す
る手続きを取ればよい。
The parent application service providing section investigates the content ID of the packet flowing through the status information communication section 12 for a predetermined time before separating and dividing its own processing process, and provides the application service of the child to be separated. The application service providing unit 14, which is the same processing process as the unit, may take a procedure for separating the processes after confirming that the application service providing unit 14 does not exist in the entire system.

【0200】また、例えば、パケットの流通量が少ない
ために、同じ処理プロセスである応用サービス提供部1
4が複数起動された場合でも、処理結果が矛盾するので
なければ問題はない。もし、冗長な処理プロセスを省い
て全体の効率を上げたい場合には、各応用サービス提供
部14は、他の応用サービス提供部14が送信するパケ
ットを調べ、自らが発信するパケットの内容IDと一致
し、かつ、送信元を示す発信IDが自らと異なるパケッ
トを検知したときに、時間的に後から起動された側の応
用サービス提供部14が自ら終了する構成を取れば良
い。応用サービス提供部14の起動された時間の比較が
必要な場合は、応用サービス提供部14の送信するパケ
ットの発信IDは、起動された時間順に通し番号をつけ
て行けば良い。発信IDを比較することで、起動された
時間の比較は容易である。
[0200] Further, for example, since the distribution amount of packets is small, the application service providing unit 1 having the same processing process
Even if a plurality of 4 are started, there is no problem unless the processing results are inconsistent. If the redundant processing process is omitted and the overall efficiency is desired to be improved, each application service providing unit 14 checks the packet transmitted by another application service providing unit 14 and determines the content ID of the packet transmitted by itself. It is sufficient to adopt a configuration in which the application service providing unit 14 on the side that is activated later in time terminates itself when a packet that matches and the transmission ID indicating the transmission source is different from itself is detected. When it is necessary to compare the activation times of the application service providing unit 14, the transmission IDs of the packets transmitted by the application service providing unit 14 may be given serial numbers in the order of activation. By comparing the calling IDs, it is easy to compare the activated times.

【0201】[0201]

【発明の効果】以上説明したように本発明によれば、協
同作業の参加者に特別な作業を強いることなく、時間的
なスケジュールまでを確実かつ容易に調整することを可
能にする。
As described above, according to the present invention, it is possible to surely and easily adjust a time schedule without forcing a participant of a cooperative work to perform a special work.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態に係わる協同作業調整
装置の構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of a cooperative work adjusting device according to a first embodiment of the present invention.

【図2】図1中の状況情報通信部12を伝送されるパケ
ットの形態の一例を示す図。
FIG. 2 is a diagram showing an example of a form of a packet transmitted through a situation information communication unit 12 in FIG.

【図3】図1中の状況情報変換部10cの詳細な構成を
示す図。
FIG. 3 is a diagram showing a detailed configuration of a situation information conversion unit 10c in FIG.

【図4】図3中の人検出部20の詳細な構成を示す図。4 is a diagram showing a detailed configuration of a person detection unit 20 in FIG.

【図5】人検出部20による処理過程を説明するための
図。
FIG. 5 is a diagram for explaining a processing process by the person detection unit 20.

【図6】図3中の個人認証部21の詳細な構成を示す
図。
6 is a diagram showing a detailed configuration of a personal authentication unit 21 in FIG.

【図7】図3中の状況情報生成部26の詳細な構成を示
す図。
7 is a diagram showing a detailed configuration of a status information generation unit 26 in FIG.

【図8】図7中の統合部26aによってセンサレベルで
得られた状況情報が登録される状況登録テーブル(その
1)の一例を示す図。
8 is a diagram showing an example of a situation registration table (No. 1) in which situation information obtained at the sensor level by the integration unit 26a in FIG. 7 is registered.

【図9】図7中の統合行動認識部26eによって生成さ
れる比較的高度なレベルの状況情報が登録される状況登
録テーブル(その2)の一例を示す図。
9 is a diagram showing an example of a situation registration table (No. 2) in which the situation information of a relatively high level generated by the integrated action recognition unit 26e in FIG. 7 is registered.

【図10】応用サービス提供部14の基本構成と信号の
流れを示すブロック図。
FIG. 10 is a block diagram showing a basic configuration of an application service providing unit 14 and a signal flow.

【図11】応用サービス提供部14の詳細な構成を示す
ブロック図。
FIG. 11 is a block diagram showing a detailed configuration of an application service providing unit 14.

【図12】応用サービス提供部14における依頼の入力
と日程の決定を行なう処理の流れを説明するためのフロ
ーチャート。
FIG. 12 is a flowchart for explaining a flow of processing for inputting a request and determining a schedule in the application service providing unit 14.

【図13】日程レベルのスケジュールを登録するための
スケジュール表の一例を示す図。
FIG. 13 is a diagram showing an example of a schedule table for registering a schedule level schedule.

【図14】本実施形態における協同作業調整装置を用い
た際に会議の開催時間が通知されているイメージを示す
図。
FIG. 14 is a diagram illustrating an image in which a conference holding time is notified when the cooperative work adjusting apparatus according to the present embodiment is used.

【図15】第1の実施形態における日程調整処理の流れ
を説明するためのフローチャート。
FIG. 15 is a flowchart illustrating the flow of a schedule adjustment process according to the first embodiment.

【図16】第1の実施形態における当日時間調整処理の
流れを説明するためのフローチャート。
FIG. 16 is a flowchart for explaining the flow of current day time adjustment processing according to the first embodiment.

【図17】メンバ情報記憶部30cに記憶される状態テ
ーブルの一例を示す図。
FIG. 17 is a diagram showing an example of a state table stored in a member information storage unit 30c.

【図18】第1の実施形態における評価判断値(しきい
値T)を説明するための図。
FIG. 18 is a diagram for explaining an evaluation determination value (threshold value T) in the first embodiment.

【図19】第2の実施形態において用いられる構造化さ
れたパケットの一例を示す図。
FIG. 19 is a diagram showing an example of a structured packet used in the second embodiment.

【図20】第3の実施形態の動作を説明するためのフロ
ーチャート。
FIG. 20 is a flowchart for explaining the operation of the third embodiment.

【符号の説明】[Explanation of symbols]

10…入力部 10a…入力デバイス 10b…画像入力部 10c…状況情報変換部 12…状況情報通信部 14…応用サービス提供部 16…出力情報通信部 18…出力部 20…人検出部 20a…差分検出部 20b…顔検出部 20c…肢体検出部 20d…スコア統合部 20e…人数計数部 21…個人認証部 21a…正規化部 21b…照合部 21c…辞書蓄積部 21d…評価部 22…頭部方向推定部 23…視線方向推定部 24…口形状動作推定部 25…腕動作推定部 26…状況情報生成部 26a…統合部 26b…時刻発生部 26c…場所情報記憶部 26d…履歴記憶部 26e…統合行動認識部 26f…統合情報記憶部 30…状況情報参照部 30a…通信部 30b…メンバ情報制御部 30c…メンバ情報記憶部 32…アプリケーション制御部 32a…協同作業情報記憶部 32b…日程管理部 32c…当日時間管理部 32d…スケジュール記憶部 34…アプリケーション入出力部 34a…依頼入力部 34b…依頼応答部 34c…スケジュール入力部 36…アクション作成部 36a…メッセージ作成部 DESCRIPTION OF SYMBOLS 10 ... Input part 10a ... Input device 10b ... Image input part 10c ... Situation information conversion part 12 ... Situation information communication part 14 ... Application service provision part 16 ... Output information communication part 18 ... Output part 20 ... Person detection part 20a ... Difference detection Part 20b ... Face detection part 20c ... Limb detection part 20d ... Score integration part 20e ... People counting part 21 ... Personal authentication part 21a ... Normalization part 21b ... Collation part 21c ... Dictionary storage part 21d ... Evaluation part 22 ... Head direction estimation Part 23 ... Gaze direction estimation part 24 ... Mouth shape motion estimation part 25 ... Arm motion estimation part 26 ... Situation information generation part 26a ... Integration part 26b ... Time generation part 26c ... Location information storage part 26d ... History storage part 26e ... Integrated behavior Recognition unit 26f ... Integrated information storage unit 30 ... Situation information reference unit 30a ... Communication unit 30b ... Member information control unit 30c ... Member information storage unit 32 ... Application Application control unit 32a ... Cooperative work information storage unit 32b ... Schedule management unit 32c ... Current time management unit 32d ... Schedule storage unit 34 ... Application input / output unit 34a ... Request input unit 34b ... Request response unit 34c ... Schedule input unit 36 ... Action Creation unit 36a ... Message creation unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鈴木 薫 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 (72)発明者 田中 英治 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 (72)発明者 谷口 恭弘 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Kaoru Suzuki Kaoru Suzuki 1-30-1 Oyonaka, Kita-ku, Osaka-shi, Osaka In-house Toshiba Kansai Branch (72) Eiji Tanaka 1 Oyonaka, Kita-ku, Osaka-shi, Osaka 1-30 No. 1 in Toshiba Kansai Branch Co., Ltd. (72) Inventor Yasuhiro Taniguchi 1-30 No. 1 Odanaka, Kita-ku, Osaka-shi, Osaka In-house Toshiba Kansai Branch

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 協同作業に関係する人物を含む周囲の状
況を撮影して画像を入力するための画像入力手段を有す
る複数の情報処理装置と、 前記複数の情報処理装置の間で相互に情報の送受信を行
なう通信手段とを有し、 前記情報処理装置は、 前記画像入力手段によって入力された画像をもとに、画
像中に含まれる人物の状況を表わす状況情報を生成し、
前記通信手段を介して他の情報処理装置に送信する状況
情報変換手段と、 何れかの情報処理装置における前記状況情報変換手段に
よって生成された状況情報を前記通信手段を介して受信
し、前記状況情報に応じて協同作業に関係する人物の中
で協同作業に参加可能な人物を決定し、前記参加可能な
人物に対するメッセージを生成して前記通信手段を介し
て何れかの情報処理装置に提供する応用サービス提供手
段とを具備したことを特徴とする協同作業調整装置。
1. A plurality of information processing devices having image input means for photographing a surrounding situation including a person involved in a collaborative work and inputting an image, and mutual information between the plurality of information processing devices. And a communication unit that transmits and receives, the information processing device, based on the image input by the image input unit, generates situation information representing a situation of a person included in the image,
Status information conversion means for transmitting to the other information processing device via the communication means, and status information generated by the status information conversion means in any of the information processing devices is received via the communication means, A person who can participate in the collaborative work is determined among the persons related to the collaborative work according to the information, a message for the person who can participate in the collaborative work is generated, and the message is provided to any information processing device via the communication means. A collaborative work adjusting device comprising: an applied service providing means.
【請求項2】 前記応用サービス提供手段は、 前記状況情報変換手段によって生成され前記通信手段を
介して送信される状況情報から、協同作業に関係する人
物についての状況情報を受信して蓄積する状況情報参照
手段と、 協同作業の依頼入力と、入力された依頼に応じた協同作
業の調整結果についての応答出力を行なうアプリケーシ
ョン入出力手段と、 前記アプリケーション入出力手段によって入力された依
頼に応じて、前記状況情報参照手段に蓄積された状況情
報を用いて協同作業の調整を行なうアプリケーション制
御手段と、 前記アプリケーション制御手段による協同作業の調整結
果に応じて、協同作業に関係する人物に対してメッセー
ジを通知するアクション作成手段とを具備したことを特
徴とする請求項1記載の協同作業調整装置。
2. The situation in which the application service providing means receives and accumulates situation information about a person involved in cooperative work from the situation information generated by the situation information conversion means and transmitted via the communication means. Information reference means, request input for cooperative work, application input / output means for outputting a response regarding the adjustment result of cooperative work according to the input request, and according to the request input by the application input / output means, Application control means for adjusting the cooperative work using the status information accumulated in the status information reference means, and a message to a person related to the cooperative work according to the adjustment result of the cooperative work by the application control means. The collaborative work adjustment system according to claim 1, further comprising: an action creating means for notifying. .
【請求項3】 前記アプリケーション制御手段は、 前記アプリケーション入出力手段によって入力された協
同作業の依頼に含まれる協同作業条件を記憶するための
協同作業情報記憶手段と、 前記協同作業情報記憶手段に記憶された協同作業条件に
基づいて、協同作業の関係者についての状況情報をもと
に協同作業の時間調整を行なう当日時間管理手段とを具
備したことを特徴とする請求項2記載の協同作業調整装
置。
3. The application control means stores cooperative work information storage means for storing cooperative work conditions included in a request for cooperative work input by the application input / output means, and stores in the cooperative work information storage means. 3. The collaborative work adjustment according to claim 2, further comprising: same-day time management means for adjusting the time of the collaborative work based on the situation information about the persons involved in the collaborative work based on the established collaborative work conditions. apparatus.
【請求項4】 前記当日時間管理手段は、 協同作業の関係者についての状況情報をもとに、各人に
ついての協同作業への参加受入れの可能性を示す依頼受
託評価値と、前記依頼受託評価値に基づく協同作業の開
催の適当性を示す開催評価値とを求めて、協同作業の調
整を行なうことを特徴とする請求項3記載の協同作業調
整装置。
4. The on-the-day time management means, based on the situation information about the parties involved in the collaborative work, a commissioned evaluation value indicating the possibility of accepting participation in the collaborative work for each person, and the commissioned acceptance. 4. The collaborative work adjustment apparatus according to claim 3, wherein the collaborative work adjustment is performed by obtaining a holding evaluation value indicating suitability for holding the collaborative work based on the evaluation value.
【請求項5】 複数の前記応用サービス提供手段の間
で、 ある応用サービス提供手段で実行するプロセスを再帰的
に分割し、分割された部分プロセスを他の応用サービス
提供手段において起動することで、部分プロセスの処理
結果を共通利用することを特徴とする請求項1記載の協
同作業調整装置。
5. A process executed by a certain application service providing means is recursively divided among a plurality of the application service providing means, and the divided partial processes are activated in another application service providing means, 2. The cooperative work adjusting device according to claim 1, wherein the processing results of the partial processes are commonly used.
【請求項6】 画像入力手段を有する複数の情報処理装
置が通信手段を介して互いに接続された情報処理システ
ムにおいて、 前記情報処理装置において、 前記画像入力手段から協同作業に関係する人物を含む周
囲の状況を撮影して画像を入力し、 この入力された画像をもとに、画像中に含まれる人物の
状況を表わす状況情報を生成して、前記通信手段を介し
て何れかの情報処理装置に送信し、 この送信された状況情報に応じて協同作業に関係する人
物の中で協同作業に参加可能な人物を決定し、 この決定された参加可能な人物に対するメッセージを生
成して前記通信手段を介して何れかの情報処理装置に提
供する協同作業調整方法。
6. An information processing system in which a plurality of information processing devices having image input means are connected to each other through communication means, in the information processing device, a surrounding area including a person involved in cooperative work from the image input means. The situation is photographed, an image is input, situation information representing the situation of a person included in the image is generated based on the input image, and any information processing device is provided via the communication means. The person who can participate in the collaborative work among the persons related to the collaborative work is determined according to the transmitted situation information, and a message is generated for the determined person who can participate in the collaborative work to generate the communication means. A collaborative work adjustment method provided to any information processing device via the.
JP05979196A 1996-03-15 1996-03-15 Cooperative work adjusting device and cooperative work adjusting method Expired - Fee Related JP3540494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05979196A JP3540494B2 (en) 1996-03-15 1996-03-15 Cooperative work adjusting device and cooperative work adjusting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05979196A JP3540494B2 (en) 1996-03-15 1996-03-15 Cooperative work adjusting device and cooperative work adjusting method

Publications (2)

Publication Number Publication Date
JPH09251441A true JPH09251441A (en) 1997-09-22
JP3540494B2 JP3540494B2 (en) 2004-07-07

Family

ID=13123469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05979196A Expired - Fee Related JP3540494B2 (en) 1996-03-15 1996-03-15 Cooperative work adjusting device and cooperative work adjusting method

Country Status (1)

Country Link
JP (1) JP3540494B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004514975A (en) * 2000-11-24 2004-05-20 クレバー エスワイエス インコーポレイテッド System and method for object identification and behavior characterization using video analysis
JP2005049854A (en) * 2003-07-15 2005-02-24 Omron Corp Object decision device and imaging device
KR100500622B1 (en) * 2000-11-07 2005-07-12 가부시끼가이샤 도시바 System and method for working management
JP2006243827A (en) * 2005-02-28 2006-09-14 Fujitsu Ltd Meeting system
US7643655B2 (en) 2000-11-24 2010-01-05 Clever Sys, Inc. System and method for animal seizure detection and classification using video analysis
US7912363B2 (en) 2003-07-15 2011-03-22 Omron Corporation Object determining device and imaging apparatus
JP2013211005A (en) * 2012-02-27 2013-10-10 Denso Corp Image processing device and vehicle control system using the same
US8634635B2 (en) 2008-10-30 2014-01-21 Clever Sys, Inc. System and method for stereo-view multiple animal behavior characterization
CN109964241A (en) * 2016-11-28 2019-07-02 株式会社卡布酷 Information processing unit

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100500622B1 (en) * 2000-11-07 2005-07-12 가부시끼가이샤 도시바 System and method for working management
US8514236B2 (en) 2000-11-24 2013-08-20 Cleversys, Inc. System and method for animal gait characterization from bottom view using video analysis
US7209588B2 (en) 2000-11-24 2007-04-24 Clever Sys, Inc. Unified system and method for animal behavior characterization in home cages using video analysis
US7643655B2 (en) 2000-11-24 2010-01-05 Clever Sys, Inc. System and method for animal seizure detection and classification using video analysis
US7817824B2 (en) 2000-11-24 2010-10-19 Clever Sys, Inc. Unified system and method for animal behavior characterization from top view using video analysis
JP2004514975A (en) * 2000-11-24 2004-05-20 クレバー エスワイエス インコーポレイテッド System and method for object identification and behavior characterization using video analysis
JP2005049854A (en) * 2003-07-15 2005-02-24 Omron Corp Object decision device and imaging device
US7912363B2 (en) 2003-07-15 2011-03-22 Omron Corporation Object determining device and imaging apparatus
JP4706197B2 (en) * 2003-07-15 2011-06-22 オムロン株式会社 Object determining apparatus and imaging apparatus
JP2006243827A (en) * 2005-02-28 2006-09-14 Fujitsu Ltd Meeting system
US8634635B2 (en) 2008-10-30 2014-01-21 Clever Sys, Inc. System and method for stereo-view multiple animal behavior characterization
JP2013211005A (en) * 2012-02-27 2013-10-10 Denso Corp Image processing device and vehicle control system using the same
CN109964241A (en) * 2016-11-28 2019-07-02 株式会社卡布酷 Information processing unit

Also Published As

Publication number Publication date
JP3540494B2 (en) 2004-07-07

Similar Documents

Publication Publication Date Title
CN112075075B (en) Method and computerized intelligent assistant for facilitating teleconferencing
KR101803081B1 (en) Robot for store management
US11849256B2 (en) Systems and methods for dynamically concealing sensitive information
US7725547B2 (en) Informing a user of gestures made by others out of the user's line of sight
US6064976A (en) Scheduling system
KR20220024557A (en) Detection and/or registration of hot commands to trigger response actions by automated assistants
Scherer et al. A generic framework for the inference of user states in human computer interaction: How patterns of low level behavioral cues support complex user states in HCI
JP3835771B2 (en) Communication apparatus and communication method
CN102541257A (en) Audience-based presentation and customization of content
CN102577367A (en) Time shifted video communications
US20210125610A1 (en) Ai-driven personal assistant with adaptive response generation
CN102902704B (en) Message processing device, phrase output
US20160065539A1 (en) Method of sending information about a user
US11769386B2 (en) Preventing the number of meeting attendees at a videoconferencing endpoint from becoming unsafe
JP3540494B2 (en) Cooperative work adjusting device and cooperative work adjusting method
Dey et al. Distributed mediation of imperfectly sensed context in aware environments
Howell et al. Active vision techniques for visually mediated interaction
US11936718B2 (en) Information processing device and information processing method
JP2003263396A (en) Information transmission support system, terminal, server and information transmission support method
US11784961B2 (en) Social interaction opportunity detection method and system
KR102605945B1 (en) Smart desk management system
JP7249371B2 (en) Information processing device, information processing method, and information processing program
Mukhamadiyeva et al. A Combined Method for Face Recognition
Gupta et al. Video Conferencing with Sign language Detection
Tsui et al. Intelligent multimodal user interface

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040325

LAPS Cancellation because of no payment of annual fees