Исследование возможностей методов машинного обучения для классификации терригенных коллекторов по характеру насыщения

Вестник ТюмГУ. Физико-математическое моделирование. Нефть, газ, энергетика.


Выпуск:

2019. Том 5. №1

Название: 
Исследование возможностей методов машинного обучения для классификации терригенных коллекторов по характеру насыщения


Для цитирования: Муравьев И. А. Исследование возможностей методов машинного обучения для классификации терригенных коллекторов по характеру насыщения / И. А. Муравьев, И. Г. Захарова // Вестник Тюменского государственного университета. Физико-математическое моделирование. Нефть, газ, энергетика. 2019. Том 5. № 1. С. 123-137. DOI: 10.21684/2411-7978-2019-5-1-123-137

Об авторах:

Муравьев Игорь Александрович, старший преподаватель кафедры программного обеспечения, Тюменский государственный университет; to.imuravev@gmail.com

Захарова Ирина Гелиевна, кандидат физико-математических наук, профессор кафедры программного обеспечения, Тюменский государственный университет; i.g.zakharova@utmn.ru

Аннотация:

Выявление свойств нефтегазовых коллекторов на основе информации, получаемой в результате геофизических исследований скважин, является одним из главных направлений исследований в области геологического и гидродинамического моделирования пласта. Недостаточная эффективность точных математических моделей для анализа данных геофизических исследований скважин, а также большой объем и зашумленность этих данных определяют актуальность использования методов машинного обучения для выявления особенностей коллекторов. В статье исследованы возможности классификации терригенных коллекторов с помощью различных методов (метод опорных векторов, дерево решений, градиентный бустинг, случайный лес, многослойная нейронная сеть и др.). Набор данных был сформирован на основе каротажных кривых для 24 скважин одной залежи. Для обучения моделей классификации были использованы предварительно нормированные данные индукционного каротажа, бокового каротажа, нейтрон-нейтронного каротажа по тепловым нейтронам, электрометрии с помощью потенциал-зондов, резистивиметрии, каротажа потенциалов самопроизвольной поляризации, гамма-каротажа и каротажа сопротивления с использованием пяти различных последовательных градиент-зондов. Для оценки точности моделей классификации, построенных различными методами, в каждом случае выполнялась кросс-валидация, оценивалось среднее значение точности и стандартное отклонение. Для метода опорных векторов исследовалось влияние выбора функции ядра (линейная, полиномиальная, сигмоид). В случае нейронной сети варьировались: ее архитектура, включая число скрытых слоев и нейронов, функции активации на различных слоях, а также вероятность дропаута. Качество полученных моделей классификации оценивалось также по значениям элементов матрицы несоответствия. Результаты вычислительных экспериментов показали результативность использования методов машинного обучения, в частности многослойных нейронных сетей, для выявления с высокой точностью (около 90%) коллекторов с нефтью.

Список литературы:

  1. Агаев Х. Б. Применение кластерного анализа для расчленения геологического разреза по данным каротажа скважины / Х. Б. Агаев // Каротажник. 2013. № 5 (227). С. 3-11. 
  2. Гафуров Д. О. Геологическая интерпретация с применением обучаемых нейронных сетей в «НейроИнформГео» данных ГИС Талаканского нефтегазоконденсатного месторождения / Д. О. Гафуров // Известия Томского политехнического университета. 2006. Том 309. № 3. С. 32-37. 
  3. Косков В. Н. Геофизические исследования скважин и интерпретация данных ГИС: учеб. пособие / В. Н. Косков, Б. В. Косков. Пермь: Изд-во Пермского государственного технического университета, 2007. 317 с. 
  4. Паклин Н. Б. Использование обучающихся алгоритмов для интерпретации данных ГИС / Н. Б. Паклин, Р. С. Мухамадиев // Бурение и нефть. 2005. № 5. С. 38-40. 
  5. Чудинова Д. Ю. Дифференциация скважин в зонах с остаточными запасами нефти с использованием нейросетевого моделирования / Д. Ю. Чудинова, М. Р. Дулкарнаев, Ю. А. Котенев, Ш. Х. Султанов // Экспозиция Нефть Газ. 2017. № 4 (57). С. 46-50. 
  6. Al-Mudhafar W. J. Integrating well log interpretations for lithofacies classification and permeability modeling through advanced machine learning algorithms / W. J. Al-Mudhafar // Journal of Petroleum Exploration and Production Technology. 2017. Vol. 7. No 4. Pp. 1023-1033. DOI: 10.1007/s13202-017-0360-0
  7. Altman N. S. An introduction to kernel and nearest-neighbor nonparametric regression / N. S. Altman // The American Statistician. 1992. Vol. 46. No 3. Pp. 175-185. DOI: 10.1080/00031305.1992.10475879
  8. Breiman L. Classification and Regression Trees / L. Breiman, J. Friedman, C. J. Stone, R. A. Olshen. New York: Routledge, 2017. 368 p. DOI: 10.1201/9781315139470
  9. Breiman L. Random forests / L. Breiman // Machine Learning. 2001. Vol. 45. No 1. Pp. 5-32. DOI: 10.1023/A:1010933404324
  10. Compare the effect of different scalers on data with outliers // Scikit-learn: Machine Learning in Python. URL: https://scikit-learn.org/stable/auto_examples/preprocessing/plot_all_scaling.html (дата обращения: 27.12.2018). 
  11. Fawcett T. An introduction to ROC analysis / T. Fawcett // Pattern Recognition Letters. 2006. Vol. 27. No 8. Pp. 861-874. DOI: 10.1016/j.patrec.2005.10.010
  12. Hagan M. T. Neural Network Design / M. T. Hagan, H. B. Demuth, M. H. Beale. Boston: PWS Publishing Company, 1996. 
  13. Hastie T. Boosting and additive trees / T. Hastie, R. Tibshirani, J. Friedman // The Elements of Statistical Learning. 2nd edition. New York: Springer, 2009. Ch. 10. Pp. 337-384. DOI: 10.1007/978-0-387-84858-7_10
  14. Iglewicz B. How to Detect and Handle Outliers / B. Iglewicz, D. C. Hoaglin. American Society for Quality Control (ASQC), Statistics Division. 1993. 87 p. 
  15. Kohavi R. A study of cross-validation and bootstrap for accuracy estimation and model selection / R. Kohavi // Proceedings of the 14th International Joint Conference on Artificial Intelligence. 1995. Vol. 2. Pp. 1137-1145. 
  16. Pearson K. On lines and planes of closest fit to systems of points in space / K. Pearson // The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science. 1901. Ser. 6. Vol. 2. Pp. 559-572. DOI: 10.1080/14786440109462720
  17. Quantile transformer // Scikit-learn: Machine Learning in Python. URL: https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing. QuantileTransformer.html (дата обращения: 27.12.2018). 
  18. Srivastava N. Dropout: a simple way to prevent neural networks from overfitting / N. Srivastava, G. Hinton, A. Krizhevsky, I. Sutskever, R. Salakhutdinov // Journal of Machine Learning Research. 2014. Vol. 15. Pp. 1929-1958. 
  19. Suykens J. A. K. Least squares support vector machine classifiers / J. A. K. Suykens, J. Vandewalle // Neural Processing Letters. 1999. Vol. 9. No 3. Pp. 293-300. DOI: 10.1023/A:1018628609742
  20. Tan F. Evaluation of complex petroleum reservoirs based on data mining methods / F. Tan, G. Luo, D. Wang, Y. Chen // Computational Geosciences. 2017. Vol. 21. No 1. Pp. 151-165. DOI: 10.1007/s10596-016-9601-4
  21. Tukey J. W. Exploratory Data Analysis / J. W. Tukey. Pearson, 1977. 712 p.