Программная реализация параллельного алгоритма итерационного сопряжения секторных моделей крупных месторождений

Вестник ТюмГУ. Физико-математическое моделирование. Нефть, газ, энергетика.


Выпуск:

2015. Том 1. №3(3)

Название: 
Программная реализация параллельного алгоритма итерационного сопряжения секторных моделей крупных месторождений


Об авторах:

Самборецкий Станислав Сергеевич, аспирант Тюменского государственного университета
Захарова Ирина Гелиевна, кандидат физико-математических наук, профессор кафедры программного обеспечения, Школа компьютерных наук, Тюменский государственный университет, Тюмень, Россия; i.g.zakharova@utmn.ru, https://orcid.org/0000-0002-4211-7675

Аннотация:

В данной статье рассматривается программная реализация компьютерного моделирования крупных нефтегазовых месторождений. Разработана архитектура распределенной вычислительной системы, обеспечивающей сопряжение секторных моделей в ходе итерационного процесса на каждом шаге работы симуляторов. Проанализированы технологии программной реализации системы. Обоснована эффективность технологии WCF для решения данной задачи. Спроектирован протокол (интерфейс и класс), обеспечивающий передачу данных между узлами для алгоритма обработки данных на отдельных вычислительных узлах, а также классы, отвечающие за выполнение общего алгоритма. Приведены две возможные стратегии балансировки нагрузки на вычислительную систему, обоснованы их области применения.

Список литературы:

1.             Белоносов М. А. Организация параллельных вычислений для моделирования сейсмических волн с использованием аддитивного метода Шварца / М. А. Белоносов // Вычислительные методы и программирование: Новые вычислительные технологии. 2012. Т. 13. № 1. С. 525-535.

2.             Костюченко С. В. Алгоритм параллельного моделирования разработки гигантских нефтегазовых месторождений с сопряжением секторных моделей / С. В. Костюченко // Материалы V научно-практической конференции «Суперкомпьютерные технологии в нефтегазовой отрасли. Математические методы, программное и аппаратное обеспечение». М. 2015.

3.             Костюченко С. В. Технология моделирования крупных месторождений системами сопряженных секторных моделей. Часть 2. Метод итерационного сопряжения секторных моделей / С. В. Костюченко // Нефтяное хозяйство. 2012. № 4. C. 96-100.

4.             Самборецкий С. С. О распределенной вычислительной системе для компьютерного моделирования нефтегазовых месторождений на основе итерационного сопряжения секторных моделей / С. С. Самборецкий // Вестник тюменского государственного университета. Физико-математическое моделирование. Нефть, газ, энергетика. 2015. Т. 1. № 2(2). С. 204-213

5.             Самборецкий С. С. Проектирование и разработка распределенной системы для итерационного сопряжения секторных гидродинамических моделей /
С. С. Самборецкий // Материалы конференции «Суперкомпьютерные дни в России». М. 2015.

6.             Dagum L. OpenMP: an industry standard API for shared-memory programming / L. Dagum, R. Menon //Computational Science & Engineering, IEEE. 1998. Т. 5. No 1.
Pp. 46-55.

7.             He Y., Ding C. H. Q. MPI and OpenMP paradigms on cluster of SMP architectures: the vacancy tracking algorithm for multi-dimensional array transposition / Y. He, C. H. Q. Ding // Supercomputing, ACM/IEEE 2002 Conference. IEEE. 2002. P. 6.

8.             Horstmann M. DCOM architecture / M. Horstmann, M. Kirtland //Microsoft Corporation, July. 1997.

9.             Maassen J. Efficient Java RMI for parallel programming / J. Maassen //ACM Transactions on Programming Languages and Systems. 2001. Т. 23. No 6. Pp. 747-775.

10.         Resnick S. Essential windows communication foundation: for. net framework 3.5 / S. Resnick, R. Crane, C. Bowen. Addison-Wesley Professional, 2008.

11.         Smith J. Inside microsoft windows communication foundation / J. Smith. Redmond: Microsoft Press, 2007. Pp. 89-96.

12.         Vinoski S. CORBA: integrating diverse applications within distributed heterogeneous environments / S. Vinoski // Communications Magazine, IEEE. 1997. Т. 35. No 2. Pp. 46-55.