В настоящее время процесс цифровой трансформации активно идет в экономике, науке, образовании
и в обществе в целом. С ним связан ряд ограничений и рисков, рассматриваемых в статье. Большой класс ограничений позволяет выявить математическая теория сложности. Точное решение ряда простых по виду проблем с небольшим объемом входных данных требует ресурсов, многократно превышающих возможности всех доступных компьютеров. На «границе» между естественным и искусственным интеллектом имеет место «когнитивный барьер». Это приводит к тому, что мы, как правило, не можем воспользоваться результатами работы ряда систем с искусственным интеллектом, чтобы скорректировать свои стратегии. Мы и машины «думаем» по-разному. Их приходится рассматривать как «черные ящики». Весьма вероятно, что тестер систем искусственного интеллекта станет одной из массовых профессий уже в недалеком будущем. Приведены примеры, показывающие, что «перевод» с «непрерывного» на «дискретный» язык может приводить к качественно различному поведению математических моделей. В ряде задач, связанных с вычислительным экспериментом, это может быть весьма существенно. Большие риски возникают при переходе в «быстрый мир», при приближении к «барьеру Лема». Это происходит, когда системам искусственного интеллекта препоручаются стратегически важные задачи, которые они должны решать в темпе, недоступном для человека. Проведенный анализ показывает, что управление рисками цифровой трансформации и её ограничений требует внимания научного и экспертного сообщества, а также активных участников этого процесса.