W latach 1983-86 Richard Feynman, jeden z największych fizyków XX wieku, wygłosił cykl wykładów zatytułowany "Możliwości i ograniczenia maszyn liczących". Większość materiału oparła się próbie czasu i ukazuje Feynmanowskie spojrzenie na wiele standardowych i kilka niestandardowych zagadnień związanych z maszynami liczącymi i informatyką. Znajdujemy wśród nich m.in. maszynę Turinga, teorię informacji, twierdzenie Shannona, termodynamikę obliczeń i fizykę układów scalonych. Całość stanowi wyjątkową analizę ograniczeń i możliwości komputerów, a publikacja wykładów została uznana za punkt zwrotny w nowej, dynamicznie rozwijającej się dziedzinie wiedzy: teorii informacji kwantowej. "Wykłady o obliczeniach" są ponadto ciekawą ilustracją metody prowadzenia badań przez Feynmana, który zwykł był mawiać: "Jeśli nie przestaniecie udowadniać tego, co zrobili już inni, nabierać pewności, komplikować rozwiązań - po prostu dla przyjemności - wtedy, pewnego dnia, rozejrzycie się, i stwierdzicie, że tego jeszcze nikt nie zrobił! To jest sposób zostania uczonym".