Я использую Spark Dataset API для выполнения операций с JSON для извлечения определенных полей по мере необходимости. Однако, когда спецификация, которую я предоставляю, чтобы искра знала, какое поле извлекать, идет не так, как надо, искра выплевывает
org.apache.spark.sql.AnalysisException
Как можно обрабатывать непроверенные исключения во время выполнения в подобном сценарии распределенной обработки? Я понимаю, что бросок try-catch приведет к сортировке вещей, но каков рекомендуемый способ справиться с таким сценарием?
dataset = dataset.withColumn(current, functions.explode(dataset.col(parent + Constants.PUNCTUATION_PERIOD + child.substring(0, child.length() - 2))));