Синформатикой 1) для решения какого класса применяется логистическая регрессия? 1. регрессия. 2. классификация. 3. кластеризация. 4. генерация изображений. 2) о чём говорит значение сигмоидной функции в логистической регрессии, равное 0.9? 1. вероятность принадлежности классу 1 равна 0.9. 2. вероятность принадлежности классу 0 равна 0.9. 3. вероятность принадлежности классу 0 равна 0.1. 4. вероятность принадлежности классу 1 равна 0.1. 3) какие базовые алгоритмы можно использовать в бэггинге? 1. логистическая регрессия. 2. дерево решений. 3. любой алгоритм классификации. 4. никакой из перечисленных. 4) какие базовые алгоритмы можно использовать в случайном лесе? 1. линейная регрессия. 2. логистическая регрессия. 3. дерево решений. 4. любой алгоритм классификации. 5) в классификации для одного объекта получены следующие предсказания классов: 0, 0, 1, 0, 1. каким будет итоговый ответ в бэггинге? 6) в классификации для одного объекта получены следующие предсказания классов: 0, 0, 0, 1, 1, 1, 1. каким будет итоговый ответ в бэггинге? 7) в регрессии для одного объекта получены следующие предсказания: 7, 9, 8, 7, 5, 6. каким будет итоговый ответ в бэггинге? ответ округлите до целых. 8) пусть в случайном лесе в регрессии на 10 деревьях был получен ответ 7,5. ещё одно дерево выдало на том же объекте ответ 13. каким будет итоговый ответ композиции из всех 11 деревьев? 9) для чего в случайном лесу для каждого базового алгоритма случайно выбираются и множество объектов, и множество признаков в каждой вершине? выберите все верные ответы. 1. для эффективного ограничения зависимости признаков друг от друга. 2. чтобы в признаки не попала информация о целевой переменной. 3. так можно построить более устойчивую к переобучению композицию. 10) какие существуют недостатки у ансамблей моделей? выберите все верные ответы. 1. в ансамбле становится невозможным хранить все обучающие данные 2. предсказание занимает слишком большое время 3. ансамбль алгоритмов трудно визуализировать 4. их можно создавать только на основе линейных моделей
1 - 2
2 - 1, 3
3 - 3
4 - 3
5 - 0
6 - 1
7 - 7
8 - 8
9 - 1, 3
10 - 2, 3