RU2191424C2 - Способ оптимизации параллельной обработки информации для минимизации ее стоимости - Google Patents

Способ оптимизации параллельной обработки информации для минимизации ее стоимости Download PDF

Info

Publication number
RU2191424C2
RU2191424C2 RU2000108256A RU2000108256A RU2191424C2 RU 2191424 C2 RU2191424 C2 RU 2191424C2 RU 2000108256 A RU2000108256 A RU 2000108256A RU 2000108256 A RU2000108256 A RU 2000108256A RU 2191424 C2 RU2191424 C2 RU 2191424C2
Authority
RU
Russia
Prior art keywords
workstations
cost
information
workstation
processes
Prior art date
Application number
RU2000108256A
Other languages
English (en)
Other versions
RU2000108256A (ru
Inventor
В.О. Гроппен
А.С. Мирошников
Original Assignee
Северо-Кавказский региональный центр информатизации высшей школы
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Северо-Кавказский региональный центр информатизации высшей школы filed Critical Северо-Кавказский региональный центр информатизации высшей школы
Priority to RU2000108256A priority Critical patent/RU2191424C2/ru
Publication of RU2000108256A publication Critical patent/RU2000108256A/ru
Application granted granted Critical
Publication of RU2191424C2 publication Critical patent/RU2191424C2/ru

Links

Images

Landscapes

  • Computer And Data Communications (AREA)

Abstract

Изобретение относится к системам параллельной обработки информации. Его использование в локальных вычислительных сетях позволяет получить технический результат в виде оптимального использования ресурсов локальной вычислительной сети. Способ предназначен для использования в локальных вычислительных сетях, содержащих рабочие станции, среди которых имеется одна главная рабочая станция и удаленные рабочие станции, между которыми главная рабочая станция распределяет отдельные вычислительные процессы, на которые разбивают решаемую задачу, включающий в себя определение оптимального количества параллельно выполняемых на рабочих станциях процессов обработки информации. Технический результат достигается благодаря тому, что распределение отдельных вычислительных процессов осуществляют на удаленные рабочие станции с наименьшей загрузкой в плане использования процессорного времени выполняющимися на них задачами, а определение оптимального количества (Хопт) параллельно выполняемых процессов осуществляют на главной рабочей станции согласно заранее заданным условиям. 2 ил.

Description

Изобретение относится к вычислительной технике, в частности к системам параллельной обработки информации, и может быть использовано в локальных вычислительных сетях (ЛВС).
Известен способ функционирования объектной модели, включающий размещение на рабочих станциях сети серверных и клиентских компонентов (см. Френк Хэйес. Distributed Component Object Model. Computerworld, Россия, 24, 1999, с. 30).
Недостатком такого способа является невозможность минимизации стоимости обработки информации при учете ряда ограничений.
Наиболее близким к заявленному способу является способ оптимального формирования визуального изображения, включающий определение оптимального числа процессоров, используемых для обработки визуальной информации (см. патент РФ 2045095, МПК 6 G 06 T 1/20, опубл. 27.09.95 г., БИ 27).
Недостатком данного способа является то, что он распространен только на обработку визуальной информации и его невозможно использовать при параллельном решении любых задач.
Задачей технического решения является создание способа оптимальной параллельной обработки информации (СОПОИ) для минимизации стоимости обработки информации.
Технический результат заключается в том, что наиболее полно используются ресурсы ЛВС сети при возможности снижения стоимости обработки информации за счет использования оптимального числа рабочих станций (PC).
Этот технический результат достигается тем, что в известном способе обработки информации, включающем определение оптимального количества процессов, используемых для обработки информации, согласно изобретению оптимальное количество процессов определяют по формуле
Figure 00000002

где f представляет собой целую часть от
Figure 00000003
исходя из условий оптимизации:
Figure 00000004

где S - стоимость решения задачи;
Р - количество PC в комплексе;
k - коэффициент пропорциональности;
а - стоимость одной PC;
b - стоимость коллективно используемых ресурсов: каналов связи (КС), общих устройств ввода информации (ОУВ), общих устройств памяти (ОУП) и общих устройств вывода информации (ОУВв);
с - время, затрачиваемое на подготовку вычислений;
d - время решения задачи одной PC.
Данный способ позволит достичь более высокого быстродействия при использовании локальных вычислительных сетей с более "слабыми" и, следовательно, более дешевыми станциями, что снизит в целом стоимость параллельной обработки информации при решении поставленной задачи.
Сущность способа поясняется чертежами, где на фиг.1 изображен аппаратно-программный комплекс на базе локальной вычислительной сети, на фиг.2 - рабочая станция.
Аппаратно-программный комплекс (см. фиг.1) состоит из рабочих станции (PC1), (PC2),...(PCn) - персональных компьютеров, каналов связи (КС) - проводные, беспроводные и оптические каналы связи, которые обеспечивают передачу цифровой информации между рабочими станциями (PC1), (РС2),...(РСn), а также общими устройствами ввода информации (ОУВ), общими устройствами памяти (ОУП) и общими устройствами вывода информации (ОУВв).
Рабочие станции (PC1), (РС2), . ..(РСn), входящие в состав комплекса, состоят из следующих устройств (см. фиг.2): блока управления (БУ) - один или несколько центральных процессоров, контролеры памяти, магнитных дисков, устройств ввода/вывода и т.п.; запоминающих устройств (ЗУ), постоянно запоминающих устройств (ПЗУ), оперативно запоминающих устройств (ОЗУ), накопителей информации на магнитных дисках и лентах, на оптических дисках и т.п.; устройств ввода информации (УВ); устройств вывода информации (УВв); устройства подключения и передачи информации по КС (УПКС).
К общим устройствам комплекса по КС имеют неограниченный доступ все PC.
PC соединяют между собой КС по типу: "кольцо", "звезда", "общая шина", "матрица" и т. п.
Входящие в структуру комплекса устройства выполняют стандартные функции и реализуются с использованием стандартной элементной базы. Новых средств для своего осуществления заявленный способ не требует.
Пример конкретного выполнения способа
При решении отдельной задачи, например вычисления определенного интеграла, в вычислительном комплексе из всех PC выбирается одна главная PC (ГРС), которая будет отвечать за решение задачи в целом. На остальных, удаленных рабочих станциях (УРС) в ходе решения задачи выполняются параллельные процессы.
ГРС выполняет следующие действия:
1. С помощью устройств УВ в ЗУ вводятся исходные данные задачи и информация об оптимизации: минимизации стоимости решения задачи.
2. БУ ГРС анализирует введенную и хранящуюся в ЗУ исходную информацию, разбивает решение задачи на отдельные вычислительные процессы и начинает решение задачи. Исходные данные, которые будут использоваться несколькими параллельными процессами, сохраняются БУ в ОУП. При разбиении задачи используется информация о распараллеливании вычислений. БУ первоначально создает число параллельных процессов Xопт, вычисляемое по формуле
Figure 00000005

где f представляет собой целую часть от
Figure 00000006
исходя из условий оптимизации:
Figure 00000007

где S - стоимость решения задачи;
Р - количество PC в комплексе;
k - коэффициент пропорциональности;
а - стоимость одной PC;
b - стоимость коллективно используемых ресурсов: КС, ОУВ, ОУП и ОУВв;
с - время затрачиваемое на подготовку вычислений;
d - время решения задачи одной PC.
Так, при следующих значениях: Р=10; k=0,001; а=700; b=1000; с=1; d=30 оптимальное число параллельных процессов составляет 7, а стоимость решения задачи S равна 31,19, что в 1,69 раза меньше, чем при однопроцессной обработке.
3. Выполнение каждого параллельного процесса протекает по следующей схеме:
- БУ ГРС выбирает наименее загруженную УРС в плане использования процессорного времени выполняющимися на ней задачами;
- с помощью УПКС через КС БУ передает выбранной УРС исходные данные параллельного процесса и сигнал "выполнить";
- БУ ГРС переходит в состояние приема через КС и УПКС сигнала "выполнено" от выбранной УРС;
- получив сигнал "выполнено", БУ ГРС принимает через КС и УПКС результирующую информацию или считывает ее с ОУП и сохраняет полученные данные в ЗУ.
4. После получения от всех УРС результатов ГРС обрабатывает их и выводит на УВв или ОУВв. На этом решение задачи закончено.
Работа УРС при получении сигнала "выполнить" заключается в следующем:
- через КС и УПКС от ГРС принимается входная информация для параллельного процесса и сохраняется БУ в ЗУ;
- БУ УРС анализирует принятую информацию и при необходимости загружает в ЗУ дополнительную информацию с УВ, ОУВ или ОУП;
- после определения всей исходной информации, необходимой для начала решения, БУ УРС переходит к решению задачи;
- в ходе решения промежуточные результаты выводятся БУ на УВв, ОУВв, ОУП или передаются ГРС. Дополнительные исходные данные БУ загружает в ЗУ с УВ, ОУВ или ОУП;
- после решения задачи в целом БУ УРС, подготовив в ЗУ результирующую информацию, посылает ее вместе с сигналом "выполнено" на ГРС.
Каждая PC, входящая в состав комплекса, выполняет дополнительные действия:
- БУ через определенные кванты времени посылает другим PC сигнал "проверка" и в течение определенного времени ожидает ответный сигнал "проверка" от каждой PC;
- если сигнал "проверка" не поступает в БУ с УРС, то БУ инициирует сигнал "ошибка" с данной УРС;
- если БУ по каким-либо причинам не может выполнить задачу или параллельный процесс, то всем PC рассылается сигнал "ошибка";
- если сигнал "ошибка" получен от PC, которая является ГРС по отношению к выполняемым БУ параллельным процессам, то соответствующие задачи снимаются БУ с решения;
- если сигнал "ошибка" получен ГРС от УРС, на которой выполнялись параллельные процессы, то БУ передает исходную информацию потерянных процессов и сигнал "выполнить" другим PC;
- при потере параллельных процессов БУ ГРС может пересмотреть план их распараллеливания для достижения минимальной стоимости решения задачи.
Использование предложенного способа позволит, по сравнению с прототипом, снизить стоимость параллельной обработки информации при решении выбранной задачи, а также повысить быстродействие даже при использовании локальной вычислительной сети с более "слабыми", но дешевыми рабочими станциями.

Claims (1)

  1. Способ минимизации стоимости параллельной обработки информации, предназначенный для использования в локальных вычислительных сетях, содержащих рабочие станции, среди которых имеется одна главная рабочая станция и удаленные рабочие станции, между которыми главная рабочая станция распределяет отдельные вычислительные процессы, на которые разбивают решаемую задачу, включающий в себя определение оптимального количества параллельно выполняемых на рабочих станциях процессов обработки информации, отличающийся тем, что распределение отдельных вычислительных процессов осуществляют на удаленные рабочие станции с наименьшей загрузкой в плане использования процессорного времени выполняющимися на них задачами, а определение оптимального количества (Хопт) параллельно выполняемых процессов осуществляют на главной рабочей станции согласно условиям:
    Figure 00000008

    где f представляет собой целую часть от
    Figure 00000009
    исходя из условий оптимизации:
    Figure 00000010

    где S - стоимость решения задачи;
    Р - количество рабочих станций в комплексе;
    k - коэффициент пропорциональности;
    а - стоимость одной рабочей станции;
    b - стоимость коллективно используемых ресурсов: каналов связи, общих устройств ввода информации, общих устройств памяти и общих устройств вывода информации;
    с - время, затрачиваемое на подготовку вычислений;
    d - время решения задачи одной рабочей станции.
RU2000108256A 2000-04-03 2000-04-03 Способ оптимизации параллельной обработки информации для минимизации ее стоимости RU2191424C2 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2000108256A RU2191424C2 (ru) 2000-04-03 2000-04-03 Способ оптимизации параллельной обработки информации для минимизации ее стоимости

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2000108256A RU2191424C2 (ru) 2000-04-03 2000-04-03 Способ оптимизации параллельной обработки информации для минимизации ее стоимости

Publications (2)

Publication Number Publication Date
RU2000108256A RU2000108256A (ru) 2002-04-10
RU2191424C2 true RU2191424C2 (ru) 2002-10-20

Family

ID=20232783

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2000108256A RU2191424C2 (ru) 2000-04-03 2000-04-03 Способ оптимизации параллельной обработки информации для минимизации ее стоимости

Country Status (1)

Country Link
RU (1) RU2191424C2 (ru)

Similar Documents

Publication Publication Date Title
US11570034B2 (en) Cluster computing
EP2176773B1 (en) Data packet processing method for a multi core processor
Tan et al. Coupling task progress for mapreduce resource-aware scheduling
US4980824A (en) Event driven executive
EP0352490A2 (en) A technique for parallel synchronization
US9723070B2 (en) System to improve cluster machine processing and associated methods
US11347546B2 (en) Task scheduling method and device, and computer storage medium
US10901929B2 (en) Input/output port rotation in a storage area network device
US11941528B2 (en) Neural network training in a distributed system
US20040093477A1 (en) Scalable parallel processing on shared memory computers
US20170371713A1 (en) Intelligent resource management system
EP0274339B1 (en) Event driven executive
CN115775199B (zh) 数据处理方法和装置、电子设备和计算机可读存储介质
RU2191425C2 (ru) Способ оптимизации параллельной обработки информации для минимизации ее времени
RU2191424C2 (ru) Способ оптимизации параллельной обработки информации для минимизации ее стоимости
Sajjapongse et al. A flexible scheduling framework for heterogeneous CPU-GPU clusters
CN105930210A (zh) Mpi函数调用方法和装置
Gezer A Modular and Scalable Software Reference Architecture For Decentralized Real-Time Execution on Edge Computing
EP4236125A1 (en) Method for implementing collective communication, computer device, and communication system
Filipović et al. Modified master-slave algorithm for load balancing in parallel applications
CN117032964A (zh) 一种作业自动化调度方法及装置、系统、设备、存储介质
CN115204406A (zh) 一种量子计算模拟方法、量子电路模拟器及相关设备
KR100241356B1 (ko) 분산 시스템에서 동적 동기화를 위한 다단계 스케줄링 구조 및 그 방법
CN115080207A (zh) 基于容器集群的任务处理方法及装置
CN117931425A (zh) 一种提高智算中心gpu利用率的框架及方法