Лучшие 20 цитат Ник Бостром на MyQuotes

Ник Бостром

  • От Аноним
    Ник Бостром

    Ты живешь в компьютерной симуляции?

  • От Аноним
    Ник Бостром

    Далеко не самый умный из возможных биологических видов, нас, вероятно, лучше считать самым глупым из возможных биологических видов, способных начать технологическую цивилизацию - нишу, которую мы заполнили, потому что мы оказались там первыми, а не потому, что мы в каком-то смысле оптимально адаптированы к Это.

  • От Аноним
    Ник Бостром

    Для здоровых взрослых людей мы действительно можем предвидеть, как можно вмешаться в процесс старения, замедляя или обращая его вспять.

  • От Аноним
    Ник Бостром

    Если бы Мать-Природа была настоящим родителем, она бы попала в тюрьму за жестокое обращение с детьми и убийство.

  • От Аноним
    Ник Бостром

    Как мы можем проследить связь между действиями, которые люди предпринимают сегодня, и действительно долгосрочными результатами для человечества - результатами, которые растянуты на неопределенное время в будущем? Я называю эти усилия макростратегией - то есть думать о действительно большой стратегической ситуации для того, чтобы иметь положительное влияние на долгосрочное будущее. Есть эффект бабочки: небольшое изменение в начальном состоянии может иметь произвольно большие последствия .

  • От Аноним
    Ник Бостром

    Человеческая природа находится в стадии разработки.

  • От Аноним
    Ник Бостром

    В следующем столетии мы будем изобретать радикально новые технологии - машинный интеллект, возможно, нанотехнологии, большие достижения в области синтетической биологии и другие вещи, о которых мы даже не думали. И эти новые силы откроют прекрасные возможности, но они могут также несут с собой определенные риски. И у нас нет опыта выживания этих рисков. Поэтому, если существуют большие экзистенциальные риски, я думаю, что они будут исходить из нашей собственной деятельности и в основном из нашей собственной изобретательности и творчества .

  • От Аноним
    Ник Бостром

    Маловероятно, что какой-либо из этих стихийных бедствий сделает нас в течение следующих 100 лет, если мы уже пережили 100 000 человек. Напротив, посредством человеческой деятельности мы вводим совершенно новые виды опасностей, развивая новые мощные технологии. У нас нет записей о выживании тех.

  • От Аноним
    Ник Бостром

    Машинный интеллект - последнее изобретение, которое человечеству когда-либо нужно будет сделать.

  • От Аноним
    Ник Бостром

    Наш подход к существующим рискам не может быть методом проб и ошибок. Нет возможности учиться на ошибках. Реактивный подход - посмотреть, что происходит, ограничить убытки и извлечь уроки из опыта - не работает. Скорее, мы должны занять активную позицию. Это требует предвидения, чтобы предвидеть новые типы угроз и готовность предпринять решительные превентивные действия и нести расходы (моральные и экономические) таких действий.

  • От Аноним
    Ник Бостром

    Задача, которую представляет перспектива суперинтеллекта, и то, как мы можем наилучшим образом отреагировать, - это, возможно, самая важная и самая сложная задача, с которой когда-либо сталкивалось человечество. И - преуспеем мы или провалимся - это, вероятно, последний вызов, с которым мы когда-либо столкнемся

  • От Аноним
    Ник Бостром

    Когнитивное функционирование человеческого мозга зависит от тонкого сочетания многих факторов, особенно на критических этапах развития эмбриона, и гораздо более вероятно, что эта самоорганизующаяся структура, которая будет улучшена, должна быть тщательно сбалансирована, настроена и культивируется, а не просто затопляется каким-то посторонним зельем.

  • От Аноним
    Ник Бостром

    Наибольшие экзистенциальные риски в ближайшие десятилетия или столетие возникают из-за определенных, ожидаемых технологических прорывов, которые мы могли бы сделать, в частности, в области машинного супер-интеллекта, нанотехнологий и синтетической биологии. Каждый из них обладает огромным потенциалом для улучшения состояния человека, помогая вылечить болезни, бедность и т. Д. Но можно представить, что их неправильно использовали, использовали для создания мощных систем оружия или даже какого-то случайного разрушительного сценария, когда мы внезапно оказались в обладание некоторой технологией, которая намного мощнее, чем мы можем контролировать или использовать с умом.

  • От Аноним
    Ник Бостром

    Интернет - большое благо для научных исследований. Прошли дни, проведенные в пыльных библиотеках, копающихся в журнальных статьях. Многие статьи доступны для широкой публики в журнале открытого доступа или в виде препринтов авторов & apos; интернет сайт.

  • От Аноним
    Ник Бостром

    Есть некоторые проблемы, которые технология не может решить.

  • От Аноним
    Ник Бостром

    Мы не должны быть уверены в нашей способности держать супер-умного джина запертым в его бутылке навсегда.

  • От Аноним
    Ник Бостром

    Полноценное внедрение методов стратегической коммуникации убило бы откровенность и оставило бы правду лишённой возможности постоять за себя в бушующей ночи политических призраков.

  • От Аноним
    Ник Бостром

    И наоборот, с достаточно продвинутой технологией сканирования и обильной вычислительной мощью, можно было бы использовать грубую силу и эмуляцию даже при довольно ограниченном понимании мозга.

  • От Аноним
    Ник Бостром

    Люди и человеческие организации, как правило, имеют предпочтения перед ресурсами, которые недостаточно представлены «неограниченной совокупной функцией полезности». Человек, как правило, не ставит весь свой капитал на шанс пятьдесят на пятьдесят удвоить его. Государство обычно не рискует потерять всю свою территорию с десятипроцентной вероятностью десятикратного расширения. [T] ему же не нужно держаться за ИИ. Поэтому ИИ может с большей вероятностью следовать рискованному курсу действий, который имеет некоторый шанс дать ему контроль над миром.

  • От Аноним
    Ник Бостром

    Природа, возможно, великий экспериментатор, но тот, кто никогда не сдал бы экзамен с советом по этике - противоречит Хельсинкской декларации и всем нормам морального приличия, слева, справа и по центру.