Теория и практика параллельных вычислений


Контрольные вопросы


  1. Какой минимальный набор средств является достаточным для организации параллельных вычислений в системах с распределенной памятью?
  2. В чем состоит важность стандартизации средств передачи сообщений?
  3. Что следует понимать под параллельной программой?
  4. В чем различие понятий процесса и процессора?
  5. Какой минимальный набор функций MPI позволяет начать разработку параллельных программ?
  6. Как описываются передаваемые сообщения?
  7. Как можно организовать прием сообщений от конкретных процессов?
  8. Как определить время выполнения MPI-программы?
  9. В чем различие парных и коллективных операций передачи данных?
  10. Какая функция MPI обеспечивает передачу данных от одного процесса всем процессам?
  11. Что понимается под операцией редукции?
  12. В каких ситуациях следует применять барьерную синхронизацию?
  13. Какие режимы передачи данных поддерживаются в MPI?
  14. Как организуется неблокирующий обмен данными в MPI?
  15. В чем состоит понятие тупика? Когда функция одновременного выполнения передачи и приема гарантирует отсутствие тупиковых ситуаций?
  16. Какие коллективные операции передачи данных предусмотрены в MPI?
  17. Что понимается под производным типом данных в MPI?
  18. Какие способы конструирования типов имеются в MPI?
  19. В каких ситуациях может быть полезна упаковка и распаковка данных?
  20. Что понимается в MPI под коммуникатором?
  21. Для чего может потребоваться создание новых коммуникаторов?
  22. Что понимается в MPI под виртуальной топологией?
  23. Какие виды топологий предусмотрены в MPI?
  24. Для чего может оказаться полезным использование виртуальных топологий?
  25. В чем состоят особенности разработки параллельных программ с использованием MPI на алгоритмическом языке Fortran?
  26. Какие основные дополнительные возможности предусмотрены в стандарте MPI-2?




Начало  Назад  Вперед