Я хочу нарисовать ограничивающую рамку для всего вопроса и соответствующих вариантов этого вопроса, затем я хочу извлечь текст из каждого из них и поместить в фрейм данных pandas, который будет экспортирован в Excel позже. Для этого у меня есть файл python, который определяет четыре варианта [(a), (b), (c), (d)] и вопрос. Но проблема здесь в том, когда я извлекаю все изображение (без какой-либо ограничивающей рамки) PyTesseract дает мне желаемый результат, но когда я пытаюсь извлечь его из оконных блоков, он делает много ошибок при обнаружении текста. Я прикрепил свой файл Python ниже. Может кто-нибудь подскажет, как правильно определять текст из этих ограничивающих рамок?
Код Python:
# read the image using OpenCV
image = cv2.imread("E:\PythonTarget.jpg")
# make a copy of this image to draw in
image_copy = image.copy()
# the target word to search for
target_word_a = "(a)"
target_word_b = "(b)"
target_word_c = "(c)"
target_word_d = "(d)"
# get all data from the image
data = tess.image_to_data(image, output_type=tess.Output.DICT)
# get all occurences of the that word
word_occurences_a = [i for i, word in enumerate(data["text"]) if word.lower() == target_word_a]
word_occurences_b = [i for i, word in enumerate(data["text"]) if word.lower() == target_word_b]
word_occurences_c = [i for i, word in enumerate(data["text"]) if word.lower() == target_word_c]
word_occurences_d = [i for i, word in enumerate(data["text"]) if word.lower() == target_word_d]
for occ in word_occurences_a:
# extract the width, height, top and left position for that detected word
w = data["width"][occ] + 1000
h = data["height"][occ]
l = data["left"][occ]
t = data["top"][occ]
# define all the surrounding box points
p1 = (l, t)
p2 = (l + w, t)
p3 = (l + w, t + h)
p4 = (l, t + h)
# draw the 4 lines (rectangular)
image_copy = cv2.line(image_copy, p1, p2, color=(255, 0, 0), thickness=4)
image_copy = cv2.line(image_copy, p2, p3, color=(255, 0, 0), thickness=4)
image_copy = cv2.line(image_copy, p3, p4, color=(255, 0, 0), thickness=4)
image_copy = cv2.line(image_copy, p4, p1, color=(255, 0, 0), thickness=4)
#Turn the bounding box to a cv2 image
crop = image_copy[t: t + h, l:l + w]
#Extract text from the cv2 image
results = tess.image_to_string(crop)
#print the extracted text
print(results)