Pussel

Putte har konstruerat en robot som lägger pussel. Först lägger roboten först alla kantbitar, och sedan alla de inre bitarna. Putte har räknat ut att tiden det tar för roboten att lägga ett pussel är

\[ \sum _{i=1}^ k 1.001^ i + \sum _{j=1}^ n 1.01^ j \]

där $k$ är antalet kantbitar och $n$ är antalet inre bitar. Din uppgift är nu att skriva ett program som givet ett pussels storlek räknar ut hur lång tid det kommer att ta roboten att lägga pusslet.

\includegraphics[width=8cm]{jigsaw.jpg}

Indata

Indata består av två heltal $x$ och $y$ som anger antalet pusselbitar i respektive $x$- och $y$-led. Du kan förutsätta att $1 \leq x \leq 100$ och $1 \leq y \leq 100$.

Utdata

Utdata ska bestå av 5 heltal, utskrivna på en rad med ett mellanslag mellan varje tal. De 5 talen ska ange hur många år, dagar, timmar, minuter och sekunder det tar för roboten att lägga pusslet. Vi räknar med 365 dagar per år, och för enkelhets skull så räknar vi bara hela sekunder (så om det till exempel tar 1 minut och 42.453 sekunder för roboten att lägga pusslet, så ska utdata vara

\[ \mathtt{0\; \; 0\; \; 0\; \; 1\; \; 42} \]
Sample Input 1 Sample Output 1
3 12
0 0 0 0 36
Sample Input 2 Sample Output 2
6 6
0 0 0 0 37
Sample Input 3 Sample Output 3
30 30
0 2 20 33 4