Тут немного данных для псевдонаучной конференции.
Первым делом мы прикрепляем нашу выборку (https://drive.google.com/file/d/1VNdPc4uWHxbtknL-NFWc9E_GgteEADij/view?usp=sharing) и делаем из неё дата-сет, потом мы занимаемся подгонкой данных для нашего дата-сета , убираем пустые строки , меняем типы данных на нужные нам.
Начинаем разведочный анализ и создаём некие корреляции между нужными нам данными :
1.Корреляция между тем есть ли у человека домашнее животное(какое оно) и наличие долгов
2.Затем следует наш корреляционный коэффицент Пиросна и его график :
График:
Немного про коэффицент Пирсона: В нашем случае, мы можем рассчитать коэффициент корреляции Пирсона между столбцами have и amount. Коэффициент корреляции Пирсона показывает, насколько сильно две величины связаны линейно, и его значение может изменяться в диапазоне от -1 до 1. Если коэффициент корреляции равен 1, то это означает, что есть идеальная линейная положительная связь между переменными, а если он равен -1, то это означает, что есть идеальная линейная отрицательная связь между переменными. Если коэффициент равен 0, то это означает, что между переменными нет линейной связи.
Формула коэффициента корреляции Пирсона:
где:
n - количество наблюдений
xi, yi - значения переменных have и amount соответственно
x̄, ȳ - средние значения переменных have и amount соответственно
s_x, s_y - стандартные отклонения переменных have и amount соответственно
Затем я создал нейросеть(neuromodel.py) на основе keras от tensorFlow , которая тренируется на нашем дата-сете и даёт вердикт по входным данным о нас.
Немного демонстрации как это работает: