ich habe beim Kunden das Problem das ein externes System eine sehr große Textdatei (3,7GB) auf den SAP Server liefert, einlesen mit open dataset klappt noch, aber nach kurzer Zeit geht der Speicher aus und das System dumpt.
Durch eine Änderung im Konzept hat die Datei einfach mehr Inhalt, das externe System kann das aber ab wie es aussieht. Ob es die Datei selbst splitten kann und einzelne Kleinere erstellen kann ist noch in Klärung.
Meine Frage geht eher an die Basis Experten: gibt es ein Tool für Unix das eine Datei beim Eingang in Verzeichnis x mit Namen xxx.txt automatisiert in Portionen mit bestimmter Größe aufteilt und diese z.B. als xxx_split_n.txt abspeichert?
Hab den Wald vor lauter Bäumen nicht gesehen...: Man muss die Datei ja nicht komplett einlesen, man kann ja den DO/ENDDO nach dem OPEN DATASET unterbrechen und das ganze Portionsweise verarbeiten.