Двусторонний меч неврологии

Возникающие этические дилеммы, с которыми мы сталкиваемся.

В Университете штата Огайо Университет Нейробиологии Медицинского центра Векснера и Центр Стэнли Д. и Джоан Х. Росс для здоровья и производительности мозга

Новые исследования в мозге заправляют прорывами в таких разнообразных областях, как здравоохранение и информатика. В то же время эти достижения могут привести к этическим дилеммам в ближайшие десятилетия – или, в некоторых случаях, намного раньше. Нейроэтика была предметом группового обсуждения на недавнем Саммите по здоровью и эффективности мозга, который был представлен Институтом исследований нейробиологии Университета штата Огайо в Университете штата Уэкснер и Центром Стэнли Д. и Джоана Х. Росса для мозга и производительности мозга.

Джон Баня, доктор философии, профессор кафедры реабилитационной медицины и медицинской этики в Центре этики в Университете Эмори, объяснил, как понимание неврологии может дать возможность разрабатывать гипер-интеллектуальные компьютерные программы. Одновременно наше углубляющееся понимание мозга раскрывает присущие ему недостатки даже самого передового искусственного интеллекта (ИИ).

«Как мы будем программировать компьютер, чтобы иметь опыт обучения и навигационные знания, которые есть у людей в жизни?» – спросила Баня. Он задал вопрос, возможно ли когда-либо создать (ИИ), способное воображать человека или моральные рассуждения. Действительно, когда-нибудь компьютерная программа сможет воспроизвести процессы, которые человеческий мозг применит к сложным ситуациям, – спросил Баня. В качестве примера он поставил перед аудиторией этическую дилемму: должна ли больница уважать желание жены сохранить сперму своего мертвого мужа, даже если муж никогда не согласился на такую ​​процедуру? Показывая руки, вопрос разделил аудиторию, заполненную учеными и медицинским персоналом. Баня сомневался, можно ли доверять компьютеру для решения проблем, которые делят даже самых квалифицированных людей. «Как мы когда-нибудь будем программировать компьютер, чтобы так думать?», – сказала Баня, обращаясь к процессу работы через его гипотетический. «Они хороши в распознавании изображений, но они не очень хорошо связывают шнурки».

Моральные недостатки ИИ поднимают ряд тревожных возможностей, тем более что технология, необходимая для создания высокопроизводительных компьютеров, скоро станет реальностью. «Искусственный супер-интеллект может быть последним изобретением, которое когда-либо создавали люди, – предупредил Баня. Гипер-интеллектуальные компьютеры могут начать воспринимать человеческую жизнь как угрозу, а затем приобретать средства для ее уничтожения – никогда не проверяясь человеческими чувствами сомнения или раскаяния.

По словам Эрана Кляйна, доктора философии, невролога и этика в Университете здоровья и науки штата Орегон и Центра сенсорно-нейронной инженерии Университета Вашингтона, гораздо менее абстрактные вопросы, которые сейчас стоят перед нейробиологами и другими специалистами в области здравоохранения мозга. Он считает, что Апокалипсис AI по-прежнему является далеким, наихудшим сценарием. Но пациентам уже давали не фармацевтические методы лечения, которые могут изменить их настроение и перспективы, такие как имплантаты мозга, предназначенные для борьбы с депрессией. Лечение потенциально может быть изменением жизни, а также безопаснее и эффективнее традиционных лекарств. Тем не менее, они могут также исказить чувство идентичности пациента. «Пациенты чувствовали, что эти устройства позволяют им быть более аутентичными, – объяснил Клейн. «Это позволило им быть тем человеком, которого они всегда хотели или не понимали, что могут быть».

Тем не менее, лечение исказило представление некоторых пациентов о собственной самости, сделав их неуверенными в границах между имплантатами мозга и их собственной свободной волей. «Были опасения по поводу агентства, – сказал Клейн. «Пациенты не уверены, что, если они чувствуют себя из-за себя или из-за устройства». Например, Клейн описал одного пациента, который присутствовал на похоронах и не мог плакать. «Он не знал, было ли это из-за того, что устройство работает, или потому, что он не любил этого человека так сильно, как он думал, – сказал Клейн. По мере совершенствования технологии Клейн предполагает, что пациенты и врачи должны будут сбалансировать преимущества определенных методов от их возможного влияния на чувство собственного достоинства.

Это не то место, где большие вопросы закончится. Для Джеймса Джордано, доктора философии, начальника программы исследований нейроэтики Центра клинической биоэтики Пеллегрино в Медицинском центре Джорджтаунского университета, нейронаука могла бы изменить то, как общество подходит к важнейшим вопросам человеческой природы, что может иметь серьезные последствия для права, конфиденциальности и других областях, которые, по-видимому, не имеют прямой связи с здоровьем мозга. Джордано предсказал, что может появиться новая область «нейро-закона», а ученые и ученые-юристы помогают определить надлежащий статус нейронауки в правовой системе.

Когда, например, должно ли неврологическое понимание поведения человека быть допустимым аргументом в пользу невиновности обвиняемого? Нейронаука позволяет детально понимать, как работают отдельные мозги, что создает массу информации, которую, возможно, злоупотребляла медицинским полем. «Науки мозга подготовлены к тому, чтобы защитить нас или каким-то образом – наша конфиденциальность оспаривается?» – спросил Джордано. Повторяя Кляйн, Джордано задался вопросом, может ли наука о мозге рискованно легко сформировать личность человека и чувство собственного достоинства, потенциально против воли пациента или отсутствие понимания последствий данной терапии. «Можем ли мы« отменить »боль, грусть, страдания и расширить познавательные эмоциональные или моральные способности?» – спросил Джордано. Нейронаука могла бы создать новые исходные условия медицинской или поведенческой нормальности, таким образом изменив наше представление о том, что есть и что неприемлемо. «Какова будет новая культура, когда мы будем использовать неврологию, чтобы определить, что нормально и ненормально, кто функциональный и дисфункциональный?»

Джордано предупредил, что благодаря быстрому совершенствованию технологий потребность в ответах станет все более актуальной. «Проверка реальности, – сказал Джордано, – этот материал идет».