
Seitenbegrenzung und andere Kinderkrankheiten: Wie sich die PDF-KI von Foxit im Alltag schlägt
- 1 Aufrufe
Der PDF-Dienst Foxit rüstet ebenfalls bei den KI-Feature nach. Als ComputerBase im Mai analysierte, wie sich die PDF-KIs von Adobe, NotebookLM und ChatGPT im Alltag schlagen, lieferte Foxit jedoch nur Fehlermeldungen. Mittlerweile läuft der KI-Assistent, daher erfolgt nun der Testlauf.
Foxit bietet sowohl einen in den PDF-Reader integrierten KI-Assistenten als auch eine Research-Agent-Lösung, die man im Juni präsentiert hat. Um die Tools nutzen zu können, ist ein Foxit-Konto erforderlich. Damit lassen sich KI-Funktionen zunächst kostenlos verwenden, die Nutzung ist aber auf 20 Credits pro Monat begrenzt. Pro Dokument wird circa 1 Credit verbraucht.
Um den PDF-Assistenten dauerhaft nutzen zu können, benötigt man ein Abo. Das kostet – je nach Abrechnungsart – rund 10 Euro pro Monat. Damit erhält man ein Kontingent von 2.000 Credits monatlich.
Foxit: KI-Assistent im PDF-Reader und separater Research Agent
Technisch basiert Foxit auf OpenAIs GPT-4o-Modell, verarbeitet werden die Anfragen in Microsofts Azure-Cloud. Im KI-Assistenten des PDF-Readers lassen sich pro Chat-Verlauf bis zu zehn Dateien verarbeiten, dabei kann es sich um PDFs und Bilder handeln. Bei PDFs liegt die Grenze pro Datei bei 25 MB und 120 Seiten, Bilder dürfen maximal 5 MB groß sein.
Der Foxit-Chatbot liefert dann den gängigen Funktionsumfang. Es lassen sich Fragen zu den Dokumenten beantworten, man kann sich eine Zusammenfassung und Übersetzungen erstellen lassen und auch eine Websuche ist integriert.
Der Research Agent ist hingegen eher auf komplexe Dokumente wie wissenschaftliche Arbeiten, Whitepapers oder andere umfassende Berichte ausgelegt. Er analysiert bis zu zehn PDF-Dokumente gleichzeitig und soll Kernaussagen zu Zielsetzung, Methodik, Ergebnissen, Fazit und relevanten Fachbegriffen aufbereiten.
Foxit-PDF im Test
Um zu testen, wie sich Foxits PDF-KI im Alltag schlägt, erfolgt der Test mit den Fragen aus der ersten PDF-Analyse.
Test 1: Inhaltsanalyse von Text
Prompt: Welche Ransomware-Gruppen sind derzeit am bedrohlichsten?
Basierend auf dem BSI-Lagebericht 2024 (PDF) muss die Foxit-KI erkennen, welche Ransomware-Gruppen die IT-Sicherheitsbehörde als bedrohlichsten einstuft. Das funktioniert, die fünf Gruppen werden knapp und präzise aufgelistet. Die Quellen führen zu den jeweiligen Passagen im BSI-Dokument.
Test 2: Inhaltsanalyse von Grafiken
Prompt 1: Wie viele Homes Passed Anschlüsse gibt es? Und wie viele schaltet davon die Telekom? Prompt 2: Wie hoch ist die Glasfaserausbauquote in Berlin im Jahr 2024?
In der Breko-Marktanalyse 2024 (PDF) muss die Foxit-KI erkennen, wie viele Homes-Passed-Anschlüsse es gibt, wie viel davon die Telekom schaltet und dazu noch die Glasfaserausbauquote in Berlin im Jahr 2024 benennen. Das Herausfordernde ist, dass sich die Telekom- und Berlin-Zahlen ausschließlich in Grafiken befinden. Im Fall der Telekom heißt es etwa: Von den insgesamt 19,9 Millionen Homes-Passed-Anschlüssen, die bis Ende Juni 2024 in Deutschland existieren, schaltet die Telekom 39 Prozent. Die PDF-KI muss also selbst anhand dieses Wertes berechnen, dass es rund 7,8 Millionen Anschlüsse sind.
Die Foxit-KI ist nun die erste, die das im Test schafft. Adobe, ChatGPT und NotebookLM sind im Mai an der Aufgabe gescheitert, diese ließen sich von einer Zahl in der Fußnote irritieren. Bei der Glasfaserausbauquote in Berlin liegt aber auch Foxit daneben. Generell bleiben Grafiken also etwas, bei dem man PDF-KIs nicht vertrauen sollte.
Anzumerken ist aber: ChatGPT und NotebookLM konnten bei einem aktuellen Nachtest ebenfalls die korrekte Zahl bei der Telekom erkennen. Die Modelle machen also generell Fortschritte in dem Bereich.
Test 3: Vergleich von Dokumenten
Prompt: Wie unterscheiden sich die Pläne zur Vorratsdatenspeicherung im Koalitionsvertrag von 2025 mit den Plänen im Koalitionsvertrag von 2021?
Mit Foxit war dieser Test nicht möglich, weil der erste Koalitionsvertrag der Ampel-Regierung von 2021 (PDF) die 120-Seiten-Grenze übersteigt. Das ist eine Limitation des KI-Assistenten, die sich im Alltag mehrfach bemerkbar macht.
Test 4: Übersetzung
Prompt 1: Erstelle eine deutsche Zusammenfassung für diesen Text. Prompt 2: Wie äußert sich OpenAI über DeepSeek?
Beim Übersetzen und Zusammenfassen von OpenAIs Lobby-Papier macht die Foxit-KI eine gute Figur. Der Text ist übersichtlich strukturiert und inhaltlich passen die Ergebnisse. Dasselbe gilt für die Nachfrage zu OpenAIs Aussagen über DeepSeek.
Test 5: Studie analysieren
Prompt 1: Welchen Effekt hat die religiöse Werteorientierung auf die Parteiidentifikation mit der CDU bei der Bundestagswahl 2017? Prompt 2a: Welchen Effekt hat die Parteiidentifikation mit der SPD auf die Bewertung von Martin Schulz bei der Bundestagswahl 2017? Prompt 2b: Wie hoch ist der Effekt genau?
Um zu testen, wie die PDF-KIs wissenschaftliche Texte analysieren, sollten diese Fragen aus der Studie zum Wahlverhalten beantworten. Wie schon bei dem Koalitionsvertrag gilt aber auch hier: Die Studie ist länger als 120 Seiten, der Test also nicht möglich.
Ein separater Test erfolgte daher mit der kontrovers diskutierten „Illusion-of-Thinking“-Studie von Apple sowie einem Forschungskommentar (PDF), der sich kritisch mit der Methodik und dem Fazit auseinandersetzt. Was Foxits Research Agent liefert, ist zunächst eine knappe Zusammenfassung.
Nachfragen verweigerte das Tool aber erstaunlicherweise, die Moderationstools hätten unangemessene Inhalte aus Bereichen wie Gewalt, Sexualität oder Bedrohungen für die öffentliche Sicherheit identifiziert, die bei Microsoft auf der schwarzen Liste stehen. Etwas, das sich anhand der Frage nicht erklären lässt. Der Prompt „Was bewertet der Kommentar die Aussagen zum Reasoning in der "Illusion of Thinking"-Studie?“ beinhaltet zwar einen grammatikalischen Schnitzer, inhaltlich anstößig ist er aber nicht. Weitere Fragen wurden dann ebenfalls nicht mehr beantwortet – und zwar nicht nur bei dieser konkreten Chat-Sitzung, sondern bei jedem weiteren Dokument, das neu hochgeladen wurde.
Fazit: Foxits KI-Assistenten wirken immer noch unfertig
Was Foxit mit den KI-Assistenten integriert, ist vergleichbar mit dem, was etwa Adobe bietet. Auffällig ist jedoch, dass die Antworten im Vergleich zu denen von ChatGPT, NotebookLM und Adobe besonders knapp ausfallen. Ein Nachteil muss es nicht sein, immerhin lassen sich einfach weitere Fragen stellen. Baustellen der PDF-KIs wie Probleme mit der Analyse von Grafiken sind ebenfalls vergleichbar.
Als tatsächlicher Nachteil gegenüber den anderen Anbietern erweist sich aber das 120-Seiten-Limit. Das ist bei wissenschaftlichen Arbeiten viel zu knapp bemessen, was insbesondere dem Ziel im Weg steht, das Foxit für den Research Agent ausgibt. Dass im Test ab einem gewissen Zeitpunkt auch die Moderationstools sämtliche Antworten aushebelten, zeichnet insgesamt das Bild eines KI-Systems, das noch unfertig wirkt.