Специалисты из Lux Research выделили пять проблем для глубокого обучения машин.
1. Необходим постоянный доступ к массивам данных, на анализе которых и будет строиться обучение. Хотя это не является проблемой для потребительских приложений, которые имеют возможность самостоятельно извлекать большие объемы данных, в большинстве случаев команды не имеют собственной базы для формирования основы разработок.
2. Причиной, благодаря которой глубокое обучение способно показывать хорошие результаты, является доступность большого количества взаимосвязанных нейронов (или свободных параметров), которые позволяют улавливать тонкие нюансы данных. Однако это также означает увеличение сложности идентификации иных параметров, значения которых необходимо фиксировать перед началом работ. Существует опасность нецелевого преобразования данных, которое может привести к самопереобучению.
3. Сети глубокого обучения хотя и являются достаточно мощными, но их работа затормаживается из-за огромного размера. Кроме того, сети глубокого обучения требуют много времени для обучения, что усложняет возможность реализации переобучения и внесения каких-либо корректив.
4. Из-за огромного количества уровней, узлов и соединений трудно понять, как сети глубокого обучения достигают консенсуса. Понимание процесса принятия решений становится очень важным в приложениях, обслуживающих людей, в которых от корректности работы системы полностью зависит итоговый результат.
5. Сети глубокого обучения очень восприимчивы к «эффекту бабочки» — небольшие изменения входных данных могут привести к кардинальным переменам в результатах, что делает их по своей сути нестабильными.
Ранее мы писали о трех элементах в развитии искусственного интеллекта по версии DeepBrain Chain.
текст: Евгения Лиходей, фото: Jack Moreh / StockVault