일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- RNN
- 주식분석
- GRU
- 파이썬
- 텐서플로
- C
- Sort
- scrapy
- 하이브
- yarn
- 선형대수
- recursion
- graph
- hive
- 그래프이론
- hadoop2
- C언어
- NumPy
- 코딩더매트릭스
- codingthematrix
- 하둡2
- effective python
- 딥러닝
- collections
- 알고리즘
- LSTM
- HelloWorld
- python
- tensorflow
- Java
- Today
- Total
EXCELSIOR
[러닝 텐서플로]Chap08 - tf.FIFOQueue, tf.QueueRunner, TFRecords 본문
[러닝 텐서플로]Chap08 - tf.FIFOQueue, tf.QueueRunner, TFRecords
Excelsior-JH 2018. 7. 4. 11:03텐서플로 파일 형식인 TFRecord를 읽고 쓰는 방법에 대해 알아보자.
8.1 입력 파이프라인
MNIST 이미지처럼 용량이 크지 않은 데이터는 메모리에 올려 텐서플로(TensorFlow) 그래프에 데이터를 넣어주는 방법이 편리하지만, 데이터의 용량이 큰 경우에는 메모리에 데이터를 올리는 것이 어려워진다. 이럴 경우에는 데이터를 필요한 만큼 로드하는 방식이 효율적이다.
앞에서 모델링한 딥러닝 모델에 데이터를 넣어주기 위해서 tf.Session().run()
에서 feed_dict
인자에 데이터를 넣어 줬었다. 하지만, 이러한 방법은 데이터를 단일 스레드로 복사하여 속도가 느리다는 단점이 있다.
텐서플로에서는 이러한 단점을 보완하는 텐서플로의 표준 파일 형식과 이러한 형식을 인코딩/디코딩할 수 있는 기능 등이 있다.
8.2 TFRecord
텐서플로에서 기본 데이터 형식은 TFRecord이며, TFRecord는 이진 파일로 직렬화된 입력 데이터가 담겨있다. 이러한 직렬화는 프로토콜 버퍼(Protocol Buffer, protobuf)를 기반으로 하며, 프로토콜 버퍼는 데이터의 구조를 설명하는 스키마를 사용해 데이터를 저장용으로 변환하는 역할을 한다. 텐서플로에서는 원래의 데이터 파일을 사용하는 것보다 TFRecord를 사용하는 것이 더 효율적이다.
TFRecord 파일의 모든 데이터는 하나의 메모리 블록에 저장되므로, 파일이 개별로 저장된 입력 파일에 비해 메모리에서 데이터를 읽는 시간이 더 빠르다.
텐서플로에서 TFRecord에 최적화된 기능들을 제공하고 있어, 멀티스레드 입력 파이프라인으로 사용하기에 더 적합하다.
8.2.1 TFRecordWriter로 쓰기
TFRecord에 대해 알아보았으니, MNIST 데이터를 가지고 TFRecord 형식으로 변환해 보자.
아래의 코드에서 from tensorflow.contrib.learn.python.learn.datasets import mnist
의 read_data_sets()
은 학습(train), 테스트(test), 검증(validation) 데이터가 분리(split)되어있다.
saving train
saving test
saving validation
train, test, validation TFRecords saved!
위의 코드를 하나씩 살펴보도록 하자.
먼저 tf.python_io.TFRecordWriter()
를 이용해 각 데이터 스플릿에 해당하는 파일명을 지정해 줬다.
filename = os.path.join(save_dir, '%s.tfrecords' % split)
writer = tf.python_io.TFRecordWriter(filename)
그다음, 각 이미지에 대해 NumPy의 array
를 byte string으로 변환한다.
image = data_set.images[index].tostring()
이렇게 변환된 이미지를 프로토콜 버퍼 형식으로 변환한다. 위의 코드에서 tf.train.Example
이 데이터를 저장하는 자료구조이다. Example
객체 안에 tf.train.Features
객체를 포함하고 있는데, Features
객체는 tf.trin.Feature
를 포함하고 있으며, Feature
는 tf.train.Int64List, BytesList, FloatList
등을 포함할 수 있다. 아래의 코드는 MNIST 이미지의 레이블을 인코딩하는 코드이다.
tf.train.Feature(
int64_list=tf.train.Int64List(
value=[int(data_set.labels[index])]))
TFRecordWriter
를 이용해 저장된 데이터가 어떠한 형태인지 tf.python_io.tf_record_iterator
를 사용해 알아보자.
filname = os.path.join(save_dir, 'train.tfrecords')
record_iterator = tf.python_io.tf_record_iterator(filename)
serialized_img_example = next(record_iterator)
print(serialized_img_example[:20]) # 일부만 출력
b'\n\xe8\x06\n\x0e\n\x05depth\x12\x05\x1a\x03\n\x01\x01\n'
위의 출력결과에서 확인할 수 있듯이 저장된 데이터의 형태는 바이트 스트링이다. 이러한 바이트 스트링의 형태를 NumPy의 배열로 복구하려면 ParseFromString()
을 이용하면 된다.
%matplotlib inline
import matplotlib.pyplot as plt
example = tf.train.Example()
example.ParseFromString(serialized_img_example)
image = example.features.feature['image_raw'].bytes_list.value
label = example.features.feature['label'].int64_list.value[0]
width = example.features.feature['width'].int64_list.value[0]
height = example.features.feature['height'].int64_list.value[0]
depth = example.features.feature['depth'].int64_list.value[0]
img_flat = np.frombuffer(image[0], dtype=np.uint8)
img_reshape = img_flat.reshape([height, width, depth])
img_plt = img_flat.reshape([height, width])
plt.imshow(img_plt, 'gray')
plt.xticks([]), plt.yticks([]);
8.3 큐(Queue)
텐서플로 큐(Queue)는 우리가 알고있는 큐와 같은 역할을 하지만 가장 큰 차이는 텐서플로의 큐는 연산 그래프의 일부분이라는 것이다.
다음 예제들을 통해 텐서플로의 큐에대해 알아보도록 하자.
8.3.1 큐에 넣고 빼기
아래의 예제코드는 최대 10개의 항목을 넣을 수 있는 스트링(string)의 FIFO(First In First Out) 큐를 만들어 본다. 텐서플로의 큐는 연산 그래프의 일부이므로 세션(tf.Session()
)안에서 수행된다.
import tensorflow as tf
sess = tf.InteractiveSession()
queue1 = tf.FIFOQueue(capacity=10, dtypes=[tf.string])
위의 코드에서 queue1
에서 텐서플로 내부적으로 10개의 항목을 저장하기 위한 메모리 버퍼가 생성된다.
enqueue()
생성된 FIFOQueue
에 enqueue()
를 이용해 항목을 추가해보자.
enque_op = queue1.enqueue(['F'])
print('연산을 실행하기 전 queue1.size() :', sess.run(queue1.size()))
enque_op.run()
print('연산을 실행한 후 queue1.size() :', sess.run(queue1.size()))
연산을 실행하기 전 queue1.size() : 0
연산을 실행한 후 queue1.size() : 1
enque_op = queue1.enqueue(['I'])
enque_op.run()
enque_op = queue1.enqueue(['F'])
enque_op.run()
enque_op = queue1.enqueue(['O'])
enque_op.run()
queue1_size = sess.run(queue1.size())
print('연산을 실행한 후 queue1.size() :', queue1_size)
연산을 실행한 후 queue1.size() : 4
dequeue()
이번에는 dequeue()
를 이용해 FIFOQueue
에서 항목을 제거해보자.
x = queue1.dequeue()
for i in range(1, queue1_size+1):
print('%d 번째 출력 %s' % (i, x.eval()))
1 번째 출력 b'F'
2 번째 출력 b'I'
3 번째 출력 b'F'
4 번째 출력 b'O'
8.3.2 멀티스레딩
텐서플로 세션(tf.Session()
)은 기본적으로 멀티스레드(Multi-Thread)로 실행되며, 여러개의 스레드가 같은 세션을 사용하여 병렬로 연산을 실행한다.
간단한 샘플 데이터를 이용해 텐서플로의 스레딩 및 스레드와 큐의 상호작용을 살펴보고 난뒤에 MNIST 데이터를 이용해 멀티스레딩을 적용해보도록 하자.
먼저 100개의 항목을 가진 tf.FIFOQueue
threads:
[<Thread(Thread-6, initial)>,
<Thread(Thread-7, initial)>,
<Thread(Thread-8, initial)>,
<Thread(Thread-9, initial)>,
<Thread(Thread-10, initial)>,
<Thread(Thread-11, initial)>,
<Thread(Thread-12, initial)>,
<Thread(Thread-13, initial)>,
<Thread(Thread-14, initial)>,
<Thread(Thread-15, initial)>]
==============================
check queue.size():
17
100
100
==============================
queue.dequeue_many(10):
[ 0.88396263 0.14378338 -0.98043966 -1.2009127 0.27303845 -0.8871811
1.4003232 0.15166609 0.9299293 -1.6246831 ]
90
8.3.3 Coordinator와 QueueRunner
위에서 생성한 샘플 데이터가 아닌 실제 데이터에서 멀티스레드를 제대로 동작하게 하는 것은 복잡하다. 예를 들어, 스레드가 중단된 후에는 큐가 닫혀야한다.
텐서플로는 스레드 셋의 종료를 조정하는 tf.train.Coordinator
와 데이터를 큐에 넣을 수 있도록 여러개의 스레드를 가져오는 역할을 하는 tf.train.QueueRunner
를 제공한다.
tf.train.Coordinator
tf.train.Coordinator
의 사용법을 8.3.2에서 처럼 간단한 샘플 데이터를 이용해 알아보자.
어떠한 스레드이건 상관없이 tf.train.Coordinator
의 request_stop()
을 통해 모든 스레드를 중단할 수 있다. tf.train.Coordinator
의 should_stop()
을 이용해 스레드를 중단할지의 여부를 확인할 수 있다.
아래의 예제는 add()
함수에 스레드의 인덱스 i
를 전달하고 i==11
threads:
[<Thread(Thread-6, initial)>,
<Thread(Thread-7, initial)>,
<Thread(Thread-8, initial)>,
<Thread(Thread-9, initial)>,
<Thread(Thread-10, initial)>,
<Thread(Thread-11, initial)>,
<Thread(Thread-12, initial)>,
<Thread(Thread-13, initial)>,
<Thread(Thread-14, initial)>,
<Thread(Thread-15, initial)>]
==============================
check queue.size():
29
100
100
tf.train.QueueRunner와 tf.RandomShuffleQueue
위의 예제에서는 Python의 threading
모듈을 이용해 멀티스레드를 구현했지만, 텐서플로에서 제공하는 tf.train.QueueRunner
를 사용하는 것이 더 낫다. 그 이유는 위의 예제와 동일한 작업을 수행하면서 예외 상황에서는 큐를 닫아준다.
tf.RandomShuffleQueue
는 항목을 랜덤하게 꺼내는 큐이며, 데이터의 순서를 섞을 필요가 있는 경사 하강법같은 최적화 함수를 사용해 모델을 학습시킬 때 사용할 수 있다. tf.RandomShuffleQueue
의 min_after_dequeue
인자는 dequeue
후에 큐에 남아 있을 아이템의 최소개수를 설정하는 인자이다.
아래의 예제코드는 위의 예제를 tf.train.QueueRunner
와 tf.RandomShuffleQueue
이번에는 MNIST 데이터를 가지고 데이터를 로딩 및 전처리를 텐서플로의 TFRecord, 큐, 멀티스레딩 기능을 이용해서 파이프라인을 구축해보자.
8.4.1 MNIST 데이터를 TFRecord에 쓰기(write)
먼저, 8.2.1에서 살펴보았던, 예제코드를 통해 TFRecord에 MNIST 데이터를 쓰는것 부터 시작한다.
tf.train.string_input_producer()
는 내부에서 tf.train.QueueRunner
를 생성해 입력 파이프라인을 구성하기 위한 파일명(filename
)을 큐에 출력하며, 이 큐는 여러 스레드가 공유한다. num_epochs
인자는 string_input_producer()
에 파일명(filename
)을 num_epochs
만큼 생성하도록 설정하는 인자다.
tf.TFRecordReader()
를 이용해 큐에서 파일명을 읽는다. TFRecordReader()
는 그래프의 상태를 이용해 로드 해야할 TFRecord의 위치를 확인한다.
# READ Train dataset
NUM_EPOCHS = 10
filename = os.path.join(save_dir, 'train.tfrecords')
filename_queue = tf.train.string_input_producer([filename],
num_epochs=NUM_EPOCHS)
reader = tf.TFRecordReader()
_, serialized_example = reader.read(filename_queue)
features = tf.parse_single_example(
serialized_example,
features={
'image_raw': tf.FixedLenFeature([], tf.string),
'label': tf.FixedLenFeature([], tf.int64)
})
8.4.3 tf.train.shuffle_batch()
8.4.1에서 MNIST 데이터를 TFRecords에 쓸때 이미지 데이터를 바이트 스트링으로 변환해줬다. 이를 다시 디코딩해준다. 그다음 tf.train.shuffle_batch()
를 이용해 이미지 데이터를 셔플한뒤 batch_size
만큼 가져온다. tf.train.shuffle_bacth()
는 tf.RandomShuffleQueue
를 이용해 큐에 batch_size + min_after_dequeue
만큼의 아이템이 쌓이게 한다.
image = tf.decode_raw(features['image_raw'], tf.uint8)
image.set_shape([784])
image = tf.cast(image, tf.float32)/255. - 0.5
label = tf.cast(features['label'], tf.int32)
# 랜덤한 데이터(인스턴스)를 배치에 모은다.
images_batch, labels_batch = tf.train.shuffle_batch([image, label],
batch_size=128,
capacity=2000,
min_after_dequeue=1000)
8.4.3 tf.train.start_queu_runners()와 MNIST 분류 모델 학습
입력파이프라인을 이용해 데이터를 로드하는 방법에 대해 다루기 때문에, 간단한 Softmax Regression을 이용해 MNIST 분류 모델을 만들어준다.
W = tf.get_variable('W', [28*28, 10])
y_pred = tf.matmul(images_batch, W)
# loss
loss = tf.reduce_mean(
tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y_pred,
labels=labels_batch))
# optimizer
train_op = tf.train.AdamOptimizer().minimize(loss)
with tf.Session() as sess:
init = tf.global_variables_initializer()
sess.run(init)
init = tf.local_variables_initializer()
sess.run(init)
# coordinator
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(sess=sess,coord=coord)
print(threads)
try:
step = 0
while not coord.should_stop():
step += 1
sess.run([train_op]) # feed_dict를 쓰지 않는다.
if step % 500 == 0:
loss_val = sess.run(loss)
print('Step: {:4d} | Loss: {:.5f}'.format(step, loss_val))
except tf.errors.OutOfRangeError:
print('Done training for %d epochs, %d steps.' % (NUM_EPOCHS, step))
finally:
# 완료되면 스레드 중지를 요청한다.
coord.request_stop()
# 스레드가 완료되길 기다린다.
coord.join(threads)
# example -- get image,label
# img1, lbl1 = sess.run([image, label])
# example - get random batch
# labels, images = sess.run([labels_batch, images_batch])
Done training for 10 epochs, 1 steps.
전체 코드는 다음과 같다.
saving train
saving test
saving validation
train, test, validation TFRecords saved!
[<Thread(QueueRunnerThread-input_producer-input_producer/input_producer_EnqueueMany, started daemon 5204)>, <Thread(QueueRunnerThread-input_producer-close_on_stop, started daemon 17572)>, <Thread(QueueRunnerThread-shuffle_batch/random_shuffle_queue-shuffle_batch/random_shuffle_queue_enqueue, started daemon 13684)>, <Thread(QueueRunnerThread-shuffle_batch/random_shuffle_queue-close_on_stop, started daemon 15912)>]
Step: 500 | Loss: 0.41907
Step: 1000 | Loss: 0.36166
Step: 1500 | Loss: 0.35355
Step: 2000 | Loss: 0.34944
Step: 2500 | Loss: 0.30504
Step: 3000 | Loss: 0.33213
Step: 3500 | Loss: 0.31975
Step: 4000 | Loss: 0.29386
Step: 4500 | Loss: 0.42895
Done training for 10 epochs, 4601 steps.
'DeepLearning > Learning TensorFlow' 카테고리의 다른 글
[러닝 텐서플로]Chap10.1 - 모델 익스포트와 서빙, Saver (0) | 2018.07.05 |
---|---|
[러닝 텐서플로]Chap09 - 분산 텐서플로 (0) | 2018.07.04 |
[러닝 텐서플로]Chap07.4 - 텐서플로 추상화와 간소화, TF-Slim (1) | 2018.07.01 |
[러닝 텐서플로]Chap07.3 - 텐서플로 추상화와 간소화, Keras (0) | 2018.06.30 |
[러닝 텐서플로]Chap07.2 - 텐서플로 추상화와 간소화, TFLearn (0) | 2018.06.30 |