Введение. 5. Реализация простейших алгоритмов сортировки с указанием проблем эффективной реализации: пузырь, quicksort.

5. Реализация простейших алгоритмов сортировки с указанием проблем эффективной реализации: пузырь, quicksort.

Для заинтересованных:

      1. Поиск строки: точное совпадение, частичное совпадение.
      2. Сортировка и индексирование массива строк
      3. Решение проблем сортировки, связанных с переполнением стека.
      4. Решение проблем обработки массивов связанных с ограничениями на кол-во элементов (поэтапная обработка).

Используемая литература

1.В.А. Крюков, В.А. Бахтин. Параллельное программирование с OpenMP

2. http://www.realcoding.net/article/view/6824#IDAHEPWEА.Колосов и др.32 подводных камня OpenMP при программировании на Си++.

3.OpenMP C and C++ Application Program Interface specification, version 2.0, http://www.viva64.com/go.php?url=102.

4. http://lwn.net/Articles/255364/ Ulrich Drepper's "What every programmer should know about memory".

Лабораторна робота №3. Введення в стандарт MPI.

Введение в MPI. Вивчення базової структури MPI-програми та засіб її запуску на кластері. Реалізації передачі даних типу “точка-точка” в MPI. Колективні обміни даними між MPI-процесами. Колективні операції та їх виконання.

Введение

В вычислительных системах с распределенной памятью процессоры работают независимо друг от друга.

Для организации параллельных вычислений в таких условиях необходимо иметь возможность распределять вычислительную нагрузку и организовать информационное взаимодействие (передачу данных) между процессорами (рис.3.1.).

 

Рис.3.1. Схема распределенной параллельной ВС.

 

Для решения перечисленных задач используется интерфейс передачи данных (message passing interface - MPI).

Интерфейс поддерживает параллельные, распределенные вычисления следующим образом:

1.Для распределения вычислений между процессорами необходимо проанализировать алгоритм решения задачи, выделить информационно независимые фрагменты вычислений, провести их программную реализацию и затем разместить полученные части программы на разных процессорах.

В рамках MPI принят следующий подход – для решения задачи разрабатывается одна программа и эта единственная программа запускается одновременно на выполнение на всех имеющихся процессорах!

При этом :

- подставляются разные данные для программы на разных процессорах

- предоставляется возможность организовать различия в вычислениях в зависимости от используемого программой процессора.

Подобный способ организации параллельных вычислений получил наименование модели "одна программа множество процессов" (single program multiple processes or SPMP1)).

2.Для организации информационного взаимодействия между процессорами в самом минимальном варианте достаточно операции приема и передачи данных (при этом должна существовать техническая возможность коммуникации между процессорами – каналы или линии связи). MPI поддерживает множество операций передачи данных. Они обеспечивают разные способы пересылки данных, реализуют практически все коммуникационные операции.








Дата добавления: 2015-02-03; просмотров: 1062;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.004 сек.