С началом новой недели вас! В этот понедельник мы возвращаемся к теме искусственного интеллекта (ИИ). О нём мы недавно уже говорили в нашей передаче на тему “Джон Пайпер о ChatGPT”. Тогда мы объяснили, что христианский гедонизм предлагает уникальный взгляд на ИИ – лишённый духовных привязанностей и возрождённого сердца, и в силу этого неспособный воспроизвести искреннюю радость в Господе, без которой Его прославление немыслимо. ИИ никоим образом не связан с тем, для чего Господь наделил нас разумом. После той передачи мы развили эту тему во время конференции Sing!, коснувшись вопроса, почему мы никогда не слышим об “искусственных эмоциях”.
Конечно, здесь ещё многое предстоит обсудить. Сегодня же мы постараемся взглянуть на тему ИИ с двух новых точек зрения, представленных нашими слушателями: пастором и лидером студенческого служения. В первом письме пастор, пожелавший остаться неизвестным, спрашивает: “Пастор Джон, как вы думаете, можно ли использовать платформы ИИ — например, Gemini или ChatGPT – для составления черновиков проповедей, молодёжных собраний или изучения Библии, если при этом я собираюсь их проверять, исправлять и следить за тем, чтобы они соответствовали Божиему слову?” Второе письмо – от лидера студенческого служения: “Здравствуйте, пастор Джон! Спасибо за вашу передачу, служащую благословением для многих. Мой вопрос: могу ли я использовать ИИ для написания новостных бюллетеней для участников нашего служения? Новости и события, которые я освещаю, правдивы и реальны, но их описание отнимает много времени и сил. С помощью ИИ я мог бы издавать бюллетени чаще с меньшей затратой времени, но я беспокоюсь, что это может ввести в заблуждение моих сторонников. Каковы на ваш взгляд потенциальные опасности использования ИИ пасторами для таких задач служения, как подготовка проповедей и издание новостных бюллетеней?”
Давайте начнём с определения. Мне его выдал Google. Искусственный интеллект в определении другого искусственного интеллекта. “Искусственный интеллект – это технология, которая позволяет компьютерам и машинам имитировать человеческое обучение, понимание, решение проблем, принятие решений, креативность и независимость”.
Чего у ИИ никогда не будет
Как мы уже упоминали во время конференции Sing!, в перечне того, что имитирует искусственный интеллект, отсутствуют эмоции. Чувств там нет. Я придаю этому огромное значение. Почему? Потому, что конечная цель вселенной – прославление Бога, и Он прославляется не просто тем, что мы имеем верное понятие о Нём, логически осознаём, но и тем, что радуемся о Нём, наслаждаемся, восхищаемся, ценим и дорожим Им. И чем больше мы радуемся о Боге, тем больше мы прославляем Его. А это значит, что никакой ИИ никогда не сможет поклоняться.
Поклонение – это не просто верное мышление, на что способны компьютеры. Поклонение – это верные чувства по отношению к Богу. Это действительно важно, если только мы не решим, что ИИ может занять место человека в достижении цели Бога во вселенной. Ведь он не может. Чувства человека по своей природе отличаются от его мыслительного процесса. Нас не беспокоит – во всяком случае, меня, – что компьютер может имитировать человеческие логические рассуждения, но мы считаем нелепостью попытки машины радоваться, восхищаться, благоговеть, удивляться, горевать или бояться. Мы знаем, что именно это делает человеческую душу настолько уникальной, что её не способны заменить машины. Само выражение “искусственная эмоция” является оксюмороном.
Вот в чем была суть нашего сообщения на конференции Sing! И я думаю, что, понимая отличия искусственного интеллекта от искусственных чувств, мы можем спокойно рассуждать о том, что может ИИ, а что – нет.
Что нового в ИИ?
По сути, доступные нам образцы ИИ – их много, но я буду говорить о знакомом мне ChatGPT, – это мощные онлайн-помощники, даже по их собственному определению. Если вы спросите у ChatGPT “Кто ты?”, он ответит: “[Я помощник,] распознающий и генерирующий человекоподобный текст, на основе получаемых входных данных. Пользователи могут задавать вопросы, искать информацию или вести разговор, а ChatGPT отвечает релевантным и связным текстом”. В этом суть.
Вот, что нового в ИИ. Google не пишет статьи или стихи. ChatGPT пишет. Поэтому вы можете найти много информации, задавая всевозможные вопросы и получая нужные ответы. Но стихотворение Google не напишет, а ChatGPT – да. Это значит, что у ChatGPT есть как минимум две отдельные функции: информация и синтез. Например, вы можете попросить ChatGPT привести симптомы болезни Паркинсона. Вы можете сказать: “Напиши мне абзац из ста слов с описанием симптомов“, и он просто напишет красивый абзац из ста слов с описанием симптомов болезни Паркинсона и предоставит вам список.
В этом смысле ChatGPT – это просто очень мощное дополнение к другим средствам, которые мы обычно используем, чтобы что-то узнать или изучить нужное: словари, энциклопедии, статьи, книги, поисковик Google и т. д. Мы делаем так уже тысячу лет – ищем и получаем помощь от других, чтобы что-то узнать или понять. Используя ChatGPT таким образом вы, в общем-то, действуете по старинке.
А вот что в ИИ нового, так то, что вы можете попросить ChatGPT написать проповедь объёмом в две тысячи слов по притче о блудном сыне из Луки 15. Фактически, вы можете ввести: “Пожалуйста, напиши мне проповедь объёмом в две тысячи слов о блудном сыне из Луки 15 в стиле и на языке теолога Джона Пайпера, или Жана Кальвина, или Р. Ч. Спроула”. И вы получите приемлемую проповедь в стиле и на языке теолога – как просили. Или вы можете попросить GPT написать за вас ежемесячный новостной бюллетень. Просто сообщите ему необходимые факты и укажите желаемый объём, и результат будет выглядеть, вероятно, не хуже вашего собственного сочинения.
ИИ ведёт нашу передачу
А теперь – информация к размышлению. Узнав, что в нашей сегодняшней передаче мы будем говорить об ИИ, я зашёл в ChatGPT и попросил: “Пожалуйста, напиши ответ объёмом в восемьсот слов, исходя из теологических взглядов и в стиле Джона Пайпера, на вопрос: “В чем опасность использования ИИ пастором?” Вот что я спросил. ChatGPT, секунд за пять, выдал замечательное эссе из 857 слов. Если бы я прочёл его вам сейчас, вы бы ни за что не подумали, что оно не моё, а написано ИИ. Я был потрясён.
После вступления в нём было пять пунктов: первый – опасность отрыва от божественного с цитатой 1 Коринфянам; второй пункт – угроза обезличенного служения с цитатой из Иоанна 10 – ИИ цитирует Писание, ведь так делает и Джон Пайпер; третий пункт – вызов теологической целостности с цитатой из Евреям 4; четвёртый пункт – опасность этического компромисса; и пятый пункт – угроза идолопоклонства в погоне за показными результатами с цитатой из Псалма 127. Завершал эссе “призыв к различению”. В общем, произведение ИИ меня поразило.
Но если бы я прочитал его вам как своё собственное, это было бы безнравственно. Я хочу, чтобы люди это услышали. Безнравственно – я использую сильное слово, потому что я твёрдо в этом уверен. Речь идёт о сущности Бога, смысле христианства, целостности Церкви и её служителей. Слово Бога – истина. И мы, как Его дети, не должны отступать от истины, дабы слушающие имели верное представление о нас и о том, что мы говорим. То есть, мы не лжём. Мы всецело – люди истины, открыты и честны, или мы не те, кем себя считаем.
Ужасный чёрный ход
Поэтому мой ответ: нет, не используйте ChatGPT для написания своих новостных бюллетеней, если только вы не собираетесь ясно обозначить в их заголовке: “Этот бюллетень написан ChatGPT”. Хотя вашим сторонникам это и не понравится, но так будет честно. Такие правила уже приняты и в светском мире, далёком от христианских принципов, например в Чикагском руководстве по стилю. Там описаны правила публикации и цитирования, с недавнего времени они касаются и ChatGPT. Если даже мир так поступает, то насколько более мы должны беспокоиться о том, чтобы быть честными во всём?
И во-вторых, нет, ни в коем случае не используйте ChatGPT для написания черновиков ваших проповедей, чтобы затем их проверить, подправить и довести до ума! Честно говоря, я в ужасе от этой мысли – буквально! Я знаю, что ресурсы и веб-сайты издавна служили пасторам помощью в подготовке планов, подборе иллюстраций, проведении различных исследований и т.д. И хотя в этом нет ничего нового, я всегда был в ужасе от этого по одной причине: Писание требует от старейшины, пастора и проповедника иметь дар к своему служению – дар учить – διδακτικος [дидактикос] (1 Тимофею 3:2). Это значит, что у вас должен быть дар, способность читать стихи Писания, осознавать заложенную в них реальность, чувствовать эмоции, которые они призваны вызывать, уметь ясно излагать их другим, иллюстрировать и использовать их для назидания. Это дар, который у вас должен быть для вашего главного служения. Если у вас его нет, вам не следует быть пастором.
Давайте же использовать ChatGPT и другие доступные источники информации так же, как вы используете комментарии, статьи, фильмы, музыку, песни и поэзию. Но не используйте его для сочинения, если вы не собираетесь открыто заявить об этом. Так что, если вы собираетесь поручить ChatGPT написать ваш первый черновик, чтобы затем подправить его, то вам лучше прямо сказать своей пастве: “Сегодня утром ChatGPT, искусственный интеллект, написал для вас слово от Божие”.
Автор — Джон Пайпер / © 2025 Desiring God Foundation. Website: desiringGod.org
Перевод — Дмитрий Василевский для ieshua.org
Последнее: 01.01. Спасибо!