![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
MPI_Send(Buffer, Count, MPI_LONG, TaskRank, Tag, Comm);
MPI_Recv(Buffer, Count, MPI_INT, TaskRank, Tag, Comm, & Status); При вызове этих функций необходимо, чтобы пользователь указал тип применяемых здесь данных и буфер, предназначенный для хранения посылаемых или принимаемых данных. Спецификация типа посылаемых или принимаемых данных может иметь довольно громоздкий вид и чревата последующими ошибками при передаче неверного типа. В табл. 9.3 приведены прототипы MPI-функций отправки и приема данных и их краткое описание. Таблица 9.3 Прототипы MPI-функций отправки и приема данных Функции Описание #include «mpi.h» int MPI_Send (void *Buffer, int Count, MPI_Datatype Туре, int Destination, int MessageTag, MPI_Comm Comm); Выполняет базовую отправку данных int MPI_Send_init (void *Buffer, int Count, MPI_Datatype Type, int Destination, int MessageTag, MPI_Comm Comm, MPI_Request *Request); Инициализирует дескриптор для стандартной отправки данных int MPI_Ssend (void *Buffer, int Count, MPI_Datatype Type, int Destination, int MessageTag, MPI_Comm Comm); Выполняет базовую отправку данных с синхронизацией int MPI_Ssend_init (void *Buffer, int Count, MPI_Datatype Type, int Destination, int MessageTag, MPI_Comm Comm, MPI_Request *Request); Инициализирует дескриптор для стандартной отправки данных с синхронизацией int MPI_Rsend (void *Buffer, int Count, MPI_Datatype Type, int Destination, int MessageTag, MPI_Comm Comm); Выполняет базовую отправкуданных с сигналом готовности int MPI_Rsend_init (void *Buffer, int Count, MPI_Datatype Type, int Destination, int MessageTag, MPI_Comm Comm, MPI_Request *Request); Инициализирует дескриптор для стандартной отправки данных с сигналом готовности int MPI_Isend (void *Buffer, int Count, MPI_Datatype Type, int Destination, int MessageTag, MPI_Comm Comm, MPI_Request *Request); Запускает отправку без блокировки int MPI_Issend (void *Buffer, int Count, MPI_Datatype Туре, int Destination, int MessageTag, MPI_Comm Comm, MPI_Request *Request); Запускает синхронную отправку без блокировки int MPI_Irsend (void *Buffer, int Count, MPI_Datatype Туре, int Destination, int MessageTag, MPI_Comm Comm, MPI_Request *Request); Запускает неблокирующую отправкуданных с сигналом готовности int MPI_Recv (void *Buffer, int Count, MPI__Datatype Type, int source, int MessageTag, MPI_Comm Comm, MPI_Status *Status); Выполняет базовый прием данных int MPI_Recv_init (void *Buffer, int Count, MPI_Datatype Type, int source, int MessageTag, MPI_Comm Comm, MPI_Request *Request); Инициализирует дескриптор для приема данных int MPI_Irecv (void *Buffer, int Count, MPI_Datatype Type, int source, int MessageTag, MPI_Comm Comm, MPI_Request *Request); Запускает прием данных без блокировки int MPI_Sendrecv (void *sendBuffer, int SendCount, MPI_Datatype SendType, int Destination, int SendTag, void *recvBuffer, int RecvCount, MPI_Datatype RecvYype, int Source, int RecvTag, MPI_Comm Comm, MPI_Status *Status); Отправляет и принимает сообщение int MPI_Sendrecv_replace (void *Buffer, int Count, MPI_Datatype Туре, int Destination, int SendTag, int Source, int RecvTag, MPI_Comm Comm, MPI_Status *Status); Отправляет и принимает сообщение с использованием единого буфера Наша цель — обеспечить отправку и получение MPI-данных с помо щ ью потоково г о представления iostream-классов. Данные удобно отправлять, используя следую щ ий синтаксис. //... int X; float Y; user_defined_type Z; cout «X < < Y «Z; //... Здесь разработчик не должен указывать типы данных при вставке их в объект cout. Для вывода этих данных трех типов достаточно определить оператор " < < ". Анало г ично можно поступить при выделении данных из потоково г о объекта cin. //... int X; float Y; user_defined_type Z; cin > > X > > Y > > Z; //... В инструкции ввода данных их типы не задаются. Перегрузка операторов позволяет разработчику использовать этот метод для MPI-задач. Поток cout реализуется из класса ostream, а поток cin — из класса istream. В этих классах определены операторы " < < " и " > > " для встроенных С++-типов данных. Например, класс ostream содержит ряд перегруженных операторных функций " < < ". //... ostream& operator< < (char с); ostream& operator< < (unsigned char с); ostream& operator< < (signed char с); ostream& operator< < (const char *s); ostream& operator< < (const unsigned char *s); ostream& operator< < (const signed char *s); ostream& operator< < (const void *p); ostream& operator< < (int n); ostream& operator< < (unsigned int n); ostream& operator< < (long n); ostream& operator< < (unsigned long n); //... С помощью этих определений пользователь классов ostream и istream применяет объекты cout и cin, не указывал типы передаваемых данных. Этот метод перегрузки можно использовать для упрощения МРI- взаимодействия. Мы рассмотрели идею PVM-потока в главе 6. Здесь мы применяем тот же подход к созданию MPI-потока, используя структуру классов istream и ostream в качестве руководства для разработки класса mpi_stream. Потоковые классы состоят из компонентов состояния, буфера и преобразования. Компонент состояния представлен классом ios; компонент буфера — классами streambuf, stringbuf или filebuf. Компонент преобразования обслуживается классами istream, ostream, istringstream, ostringstream, ifstream и ofstream. Компонент состояния отвечает за инкапсуляцию состояния потока. Класс ios включает формат потока, информацию о состоянии (работоспособное или состояние отказа), факт достижения конца файла (eof). Компонент буфера используется для хранения считываемых или записываемых данных. Классы преобразования предназначены для перевода данных встроенных типов в потоки байтов и обратно. UML-диаграмма семейства классов iostream показана на рис. 9.3.
Перегрузка операторов «< <» и «> >» для организации взаимодействия между MPI-задачами
Взаимоотношения и функциональность классов, показанных на рис. 9.3, можно использовать как своего рода образец для проектирования класса mpi_streams. И хотя проектирование потоковых MPI-классов требует больше предварительной работы по сравнению с непосредственны м использование м функций MPI_Recv () HMPI_Send(), в целом оно делает MPI-разработку значительно проще. А если программы с параллельной обработкой можно упростить, это нужно сделать обязательно. Уменьшение сложности программ — весьма достойнал цель для программиста. Здесь мы представляем лишь каркас класса mpi_stream. Но этого вполне достаточно для получения понятия о конструкции потокового MPI-класса. После разработки класса mpi_stream можно приступать к упрощению организации взаимодействия между MPI-задачами в большинстве MPI-программ. Листинг 9.6 содержит фрагмент из объявления класса mpi_stream.
// Листинг 9.6. Фрагмент объявления // класса mpi_stream class mpios{ protected: int Rank; int Tag; MPI_Comm Comm; MPI_Status Status; int BufferCount; //.-. public: int tag(void); //... } class mpi_stream public mpios{ protected: mpi_buffer Buffer; //... public: //... mpi_stream(void); mpi_stream(int R, int T, MPI_Comm С); void rank(int R); void tag(int T); void comm(MPI_Comm С); mpi_stream & operator< < (int X); mpi_stream & operator< < (float X); mpi_stream & operator< < (string X); mpi_stream & operator< < (vector< long> & X); mpi_stream & operator< < (vector< int> & X), mpi_stream & operator< < (vector< float> & X); mpi_stream & operator< < (vector< string> & X); mpi_stream & operator> > (int & X); mpi_stream & operator> > (float & X); mpi_stream & operator> > (string & X); mpi_stream & operator> > (vector< long> & X); mpi_stream & operator> > (vector< int> & X); mpi_stream & operator> > (vector< float> & X); mpi_stream & operator> > (vector< string> & X); //... }; Для того чтобы сократить описание, мы объединили классы impi _stream и ompi _stream в единый класс mpi _stream. И точно так же, как классы istream и ostream перегружают операторы " < < " и " > > ", мы обеспечим их перегрузку в классе mpi_stream. В листинге 9.7 показано, как можно определить эти перегруженные операторы: // Листинг 9.7. Определение операторов и **»* //... mpi_stream & operator< < (string X) { MPI_Send(const_cast< char*> (X.data()), X.size(), MPI__CHAR, Rank, Tag, Comm); return(*this); } // Упрощенное управление буфером, mpi_stream & operator< < (vector< long> & X) { long *Buffer; Buffer = new long[X.size()]; copy(X.begin(), X.end(), Buffer); MPI_Send(Buffer, X.size(), MPI_LONG, Rank, Tag, Comm); delete Buffer; return(*this); } // Упрощенное управление буфером, mpi_stream & operator> > (string & X) { char Buffer[10000]; MPI_Recv(Buffer, 10000, MPI_CHAR, Rank, Tag, Comm, & Status); MPI_Get_count(& Status, MPI_CHAR, & BufferCount); X.append(Buffer); return(*this); } Назначение класса mpios в листинге 9.7 такое же, как у класса ios в семействе классов iostream, а именно: поддерживать состояние класса mpi_stream. Все типы данных, которые должны использоваться в ваших MPI-приложениях, должны иметь операторы " < < " и " > > ", перегруженные с учетом каждого типа данных. Здесь мы продемонстрируем несколько простых перегруженных операторов. В каждом случае мы представляем упро щ енный вариант управления буфером. На практике необходимо прелусмотреть обработку исключений (на базе шаблонных классов) и распределение памяти (на базе классов-распределителей ресурсов). В листинге 9.7 обратите внимание на то, что класс mpios содержит коммуникатор, статус класса mpi_stream, номер буфера и значение ранга или тега (это — лишь одна из возможных конфигураций класса mpi_stream— существует множество других). После того как класс mpi_stream определен, его можно использовать в любой MPI-программе. Взаимодействие между MPI-задачами может быть организовано следую щ им образом. //... int X; float Y; vector< float> Z; mpi_s tream S tream (Rank, Tag, MPI_WORLD_COMM); Stream «X < < Z; Stream < < Y; //... Stream > > Z; Такой подход позволяет программисту, поддерживал потоковое пре д ставление, упростить МРТко д. Безусловно, в опре д еление операторов " < < " и " > > " необходимо включить соответствующую проверку ошибок и обработку исключительных ситуаций.
Резюме
Реализация SPMD- и MPMD-моделей параллелизма во многом выигрывает от использования шаблонов и механизма полиморфизма. Несмотря на то что MPT интерфейс включает средства динамического С++-связывания, в нем не используются преимущества методов объектно-ориентированного программирования. Это создает определенные трудности для разработчиков, использующих стандарт MPI. Для упрощения MPMD-программирования можно успешно использовать такие свойства объ-ектноориентированного программирования, как наследование и полиморфизм. Параметризованное программирование, которое поддерживается с помощью C++-шаблонов, позволяет упростить SPMD-программирование MPI-задач. Разделение работы программы между объектами — это естественный способ реализовать параллелизм в приложении. Для того чтобы облегчить взаимодействие между группами объектов, характеризующимися различной степенью ответственности за выполняемую работу, семейства объектов в MPI-приложении можно связать с коммуникаторами. Для поддержки потокового представления используется перегрузка операторов. Применение методов объектно-ориентированного и параметризованного программирования в рамках одного и того же MPI-приложения является воплощением муль-типарадигматического подхода, который упрощает код и во многих случалх уменьшает его объем. Тем самым упрощается отладка программ, их тестирование и поддержка. МРТзадачи, реализованные с помощью шаблонных функций, характеризуются более высокой надежностью при использовании различных типов данных, чем отдельно определенные функции с последующим обязательным выполнением операции приведения типа.
|