Будьте осторожны со своими желаниями, всегда есть подвох.

Разработка модели

Очень часто, когда мы сталкиваемся с проблемой и не знаем, как к ней подступиться, многие склонны добавлять себе как можно больше вариантов, потому что мы даже не знаем, что мы должны знать или какие варианты мы можем исключить.

Иногда мы ссылаемся на работу других людей, но это не всегда помогает, и в итоге мы можем получить больше возможностей, которые хотим исследовать. В машинном обучении мы начинаем с исследования, а затем используем его для получения оптимальных решений.

Если мы добавим много параметров, опасаясь, что можем упустить важную информацию, у вас будут проблемы. Если вы специалист по данным, вы будете выполнять проверки ковариации, PCA, t-SNE или UMAP, чтобы уменьшить размер входных данных, чтобы вы могли в конечном итоге тренироваться с входными данными, которые вам действительно нужны.

Допустим, вы исключили 10 входных параметров и получили 8 параметров, но как их понять или визуализировать? В большинстве случаев вы не можете, потому что мы живем в трехмерном мире, и нам трудно представить что-то большее, чем трехмерное.

Если вы прочитаете больше, вы можете найти термин под названием "Проклятие размерности".

К счастью, я нашел два важных параметра, которые существенно повлияли на результат моей модели. Пожалуйста, обратитесь к рис. 1

Из графика видно, что происходит резкое падение усиления при достижении определенного порога. Это кажется многообещающим. Поэтому я наивно думаю, что если я настрою свои настройки так, чтобы они находились на «высоком уровне», то я получу хорошую прибыль.

Ну я прав только если другие параметры стоят на месте. Плато сужается и резко смещается при изменении других входных параметров на рис. 1

Кривая размерности дает мне слепые пятна

Я немного лучше визуализирую трехмерные объекты, чем мои сверстники, но когда я пытаюсь сделать это с большим количеством измерений, мой мозг протестует. Поэтому мне приходится запускать тепловую карту или другие неконтролируемые методы, чтобы попытаться лучше визуализировать это или, по крайней мере, попытаться увидеть сдвиг.

Везет, как утопленнику.

Трансферное обучение

Кто-то может возразить, что я получаю свои результаты, тренируя множество криптовалют по отдельности. Дело в том, что я обучил свою модель, например, SOL-USDT, а затем использовал ее для торговли LTC-USDT и BCH-USDT, и рис.2 и рис.3 — результаты, которые я получил.

Если вам интересно узнать больше о трансферном обучении, вы можете обратиться к этой статье «Обзор глубокого трансферного обучения».

Если вы хотите достичь определенной степени трансферного обучения, не забудьте правильно нормализовать свои данные. Возможно, вам придется внимательно наблюдать за своими данными один за другим и НЕ просто использовать инструменты Scikit Learn небрежно.

Заключение

В этой статье я лишь слегка коснусь двух аспектов машинного обучения. Но это действительно дало мне много головной боли за последний год. Я надеюсь, что любой, кто сталкивался с подобными проблемами в прошлом, может поделиться своим опытом здесь.

Исследование тяжелое.

Автор AI Hedge Project