Diskussion
Aktuell haben wir beim Crawler einige locations für logging/debugging-output:
- WebUI
- /tmp/caosdb-crawl-raw.log
- debuglog.txt in TMP/ (CaosDBFileSystemRoot)
- Keine Doku zum Logging
- Unterschiedliche Orte, wo man schauen muss? caosdb-crawl.log, tmp ordner, webinterface
Wäre das nicht besser, da etwas einheitliches zu haben? Es hat mich gerade recht viel Zeit gekostet herauszufinden, wo die relevanten Logs sind. Zumal mir bei "Unexpected Error: Please tell your administrator about this and provide the following path.//Shared/GQDKI24F-RZC2DMTS-YCLMVTZS/debuglog.txt" nicht klar war, dass der Pfad eigentlich lautet: /home/caosadmin/caosdb-server/CaosDBFileSystem/TMP/GQDKI24F-RZC2DMTS-YCLMVTZS
Btw. wie schalte ich HTML-Ausgabe in SSS-Stdout ein? :-)
Und: Cool, die CrawlerRun-Records scheinen nun schon automatisch mit drin zu sein. ABER: Wie bekomme ich denn das Datenmodell, das dafür notwendig ist?
ah, hab' das crawler_run_model.yml gefunden!
ich habe nun noch eine menge probleme mit verschiedenen Orten von installierten Python-Packages. Würde es nicht sinn machen für die SSScripts ein venv in caosdb-server/scripting/venv zu erstellen und das jeweils aktivieren zu lassen?