Zaprojektować należy stronę WWW, która wyświetlałaby treści parsowane (crontab i wget?) z innych stron (web scraping, ale nic nielegalnego). Treści na wcześniej wspomnianych stronach zmieniają się codziennie o określonych godzinach (np. o północy) i wówczas skrypt musi się uruchamiać oraz aktualizować.
Dodatkowe funkcjonalności:
– kanał RSS aktualizowany po pojawieniu się nowych danych z web scrapingu
– powiadomienia e-mail o nowych danych z web scrapingu
– licznik kliknięć w dany URL
– dodawanie do URL-a stringów typu utm_campaign/soruce/medium itp.
Najmilej widziane osoby z Warszawy, z którymi od czasu do czasu można by się spotkać osobiście.