Построив модель с помощью функции lm мы хотим посмотреть, что же там получилось. Но, на самом деле, здесь торопиться не надо. И как мы всегда рекомендуем в первую очередь надо провести диагностику валидности этой модели. И так как эта модель множественная, то прежде всего надо проверить не являются ли предикторы в которые включена эта модель коллинеарными. И вот если вы сразу попробуете применить функцию vif, которую мы уже использовали, это функцию из пакета car к исходной модели, которая включает взаимодействие, то вы сразу увидите очень большое значение variance infraction factor. Поэтому нам таким путем идти не надо. И для того, чтобы проверить коллинеарны ли наши предикторы мы должны воспользоваться небольшим трюков. Для этого мы построим модель в которой взаимодействий нет и уже эту модель будем использовать в качестве аргумента для функций vif и в такой ситуации мы сможем адекватно оценить коллинеарны ли наши предикторы. В данном случае никакой коллинеарности не выявляется. Оказывается в том и в другом случае стал другой предиктор равным единице, мы можем считать, что это условие применимо выполняется. Теперь давайте займемся анализом остатков и для этого как и ранее воспользовались его функцией fortify, которая построит dataframe со всеми нужными нам для диагностики данными. И в первую очередь построим график расстояния кука, который позволит нам выяснить присутствует ли здесь какие-то влиятельные наблюдения. Для этого мы воспользоваться уже опять же известным нам кодом, который ничем не отличается и мы видим, что расстояние кука нигде не превышает единицы. Это означает, что влиятельных наблюдений в нашем dataset нет и все эти точки, которые отскакивали нас не должны смущать. Дальше! Мы должны посмотреть как связаны остатки с предсказанными значениями. И здесь мы видим, что точки рассеиваются вокруг линии идущей вдоль нуля почти безупречно, единственный отскок от этой точки им мы можем пренебречь, потому что вот эта линия регрессии, которая подобраны методом лоэс очень часто чувствительна к таким кривым отскакивающим значением. Так что в этом случае мы можем считать, что у нас все более менее хорошо. Ну естественно надо посмотреть как связаны остатки с предикторами, которые включены в модель. У нас имеется один непрерывный предиктор, это age и мы откладывали его по оси X, по оси Y откладывали остатки и видим? Что здесь тоже никаких особых проблем не наблюдается. В случае с дискретным предиктором мы видим, что эти две совокупности остатков точно так же распределены очень хорошо вокруг нуля и в данном случае все более или менее хорошо. Теперь мы должны посмотреть нет ли каких-то паттернов в связи остатков с теми переменами, которые не были включены в модель, это очень важно. Если dataset позволяют это сделать, то всегда нужно делать. И в качестве таковых мы возьмем например переменную, которая не была включена в модель и мы видим, что здесь все не так плохо, небольшой отскок здесь но опять же мы помним, что метод лоэс позволяет иногда увидеть то чего нет на самом деле, особенно по краям. Поэтому на такие вещи можно не обращать внимания. Следующая задача, это проверить нет ли у нас отклонений от нормального распределения, что мы как всегда делаем с помощью построения квантильного графика по схеме, которая нам уже знакома. Мы видим, что совершенно великолепно наши точки лежат вдоль прямой, которая должна быть при условии выполнения нормальности распределения остатков. Здесь это условие выполняется. Поэтому можем говорить о том, что отклонения от нормальности распределения остатков не наблюдается.