На попередньому занятті ви створили веб-павука, що збирає інформацію в базу даних з одного ресурсу, спеціально призначеного для тестування технологій автоматичного збору даних у мережі. Зараз вам потрібно створити застосунок — новинний агрегатор.
Ваш новинний агрегатор повинен збирати інформацію з декількох (мінімум два) джерел новин в мережі за цікавими для вас розділами (спорт наприклад). Збір даних можна реалізувати, використовуючи Scrapy, або через requests + Beautifulsoup, або через будь-який інший інструмент збору даних на Python. Для цього завдання збір інформації може запускатись вручну просто викликом скрипта.
Зібрана інформація повинна зберігатись у базі даних. Що саме збирати, ви можете вирішити самі. Це може бути подія, дата та учасники (боксерський поєдинок, хто з ким, коли та чим завершився), огляд (автор статті, тема, текст), будь-який інший цікавий для вас формат. Зібрану інформацію потрібно надати для доступу веб-клієнтам у формі JSON-API.
Для цього потрібно написати web-застосунок, використовуючи будь-який цікавий для вас фреймворк. Застосунок повинен реалізовувати JSON-API та надавати доступ до зібраної інформації. Застосунок обов'язково повинен надавати своїм клієнтам документацію за адресою /doc.