[tensorflow] Google Colab에서 TensorBoard를 사용할 수 있나요?

Google Colab에서 TensorFlow 모델을 학습 할 때 TensorBoard를 사용하는 방법이 있나요?



답변

편집 : TensorFlow 1.13부터 제공되는 공식 %tensorboard마법 을 사용하고 싶을 것입니다 .


%tensorboard마법 이 존재하기 전에이를 달성하는 표준 방법은 ngrok를 사용하여 네트워크 트래픽을 Colab VM에 프록시하는 것이 었
습니다 . Colab 예제는 여기 에서 찾을 수 있습니다 .

다음은 단계입니다 (코드 스 니펫은 colab에서 “코드”유형의 셀을 나타냄).

  1. 백그라운드에서 TensorBoard를 실행합니다. 이 답변에서
    영감을 얻었습니다 .

    LOG_DIR = '/tmp/log'
    get_ipython().system_raw(
        'tensorboard --logdir {} --host 0.0.0.0 --port 6006 &'
        .format(LOG_DIR)
    )
    
  2. ngrok를 다운로드하고 압축을 풉니 .
    전달 된 wget링크를 OS에 맞는 올바른 다운로드 링크로 바꿉니다 .

    ! wget https://bin.equinox.io/c/4VmDzA7iaHb/ngrok-stable-linux-amd64.zip
    ! unzip ngrok-stable-linux-amd64.zip
    
  3. ngrok 백그라운드 프로세스 시작 …

    get_ipython().system_raw('./ngrok http 6006 &')
    

    … 공개 URL을 검색합니다.
    출처

    ! curl -s http://localhost:4040/api/tunnels | python3 -c \
        "import sys, json; print(json.load(sys.stdin)['tunnels'][0]['public_url'])"
    


답변

여기에있는 많은 답변은 이제 구식입니다. 그래서 내가 몇 주 안에 확신합니다. 하지만이 글을 쓰는 시점에서 제가해야 할 일은 colab에서이 코드 줄을 실행하는 것뿐이었습니다. 그리고 텐서 보드는 잘 열렸습니다.

%load_ext tensorboard
%tensorboard --logdir logs


답변

다음은 Google Colab에서 동일한 ngrok 터널링 방법을 수행하는 더 쉬운 방법입니다.

!pip install tensorboardcolab

그때,

from tensorboardcolab import TensorBoardColab, TensorBoardColabCallback

tbc=TensorBoardColab()

Keras를 사용한다고 가정합니다.

model.fit(......,callbacks=[TensorBoardColabCallback(tbc)])

여기 에서 원본 게시물을 읽을 수 있습니다 .


답변

tensorboardcolab을 사용하여 Google Colab에서 실행되는 TensorFlow 용 TensorBoard. 터널링을 위해 내부적으로 ngrok를 사용합니다.

  1. TensorBoardColab 설치

!pip install tensorboardcolab

  1. tensorboardcolab 객체 만들기

tbc = TensorBoardColab()

이렇게하면 사용할 수있는 TensorBoard 링크가 자동으로 생성됩니다. 이 Tensorboard는 ‘./Graph’에서 데이터를 읽고 있습니다.

  1. 이 위치를 가리키는 FileWriter 만들기

summary_writer = tbc.get_writer()

tensorboardcolab 라이브러리에는 위의 ‘./Graph’위치를 가리키는 FileWriter 객체를 반환하는 메서드가 있습니다.

  1. summary_writer 개체를 사용하여 ‘./Graph’위치의 이벤트 파일에 요약 정보 추가 시작

스칼라 정보, 그래프 또는 히스토그램 데이터를 추가 할 수 있습니다.

참조 : https://github.com/taomanwai/tensorboardcolab


답변

시도했지만 결과를 얻지 못했지만 아래와 같이 사용하면 결과를 얻었습니다.

import tensorboardcolab as tb
tbc = tb.TensorBoardColab()

이 후 출력에서 ​​링크를 엽니 다.

import tensorflow as tf
import numpy as np

명시 적으로 Graph 개체 만들기

graph = tf.Graph()
with graph.as_default()

완전한 예 :

with tf.name_scope("variables"):
    # Variable to keep track of how many times the graph has been run
    global_step = tf.Variable(0, dtype=tf.int32, name="global_step")

    # Increments the above `global_step` Variable, should be run whenever the graph is run
    increment_step = global_step.assign_add(1)

    # Variable that keeps track of previous output value:
    previous_value = tf.Variable(0.0, dtype=tf.float32, name="previous_value")

# Primary transformation Operations
with tf.name_scope("exercise_transformation"):

    # Separate input layer
    with tf.name_scope("input"):
        # Create input placeholder- takes in a Vector 
        a = tf.placeholder(tf.float32, shape=[None], name="input_placeholder_a")

    # Separate middle layer
    with tf.name_scope("intermediate_layer"):
        b = tf.reduce_prod(a, name="product_b")
        c = tf.reduce_sum(a, name="sum_c")

    # Separate output layer
    with tf.name_scope("output"):
        d = tf.add(b, c, name="add_d")
        output = tf.subtract(d, previous_value, name="output")
        update_prev = previous_value.assign(output)

# Summary Operations
with tf.name_scope("summaries"):
    tf.summary.scalar('output', output)  # Creates summary for output node
    tf.summary.scalar('product of inputs', b, )
    tf.summary.scalar('sum of inputs', c)

# Global Variables and Operations
with tf.name_scope("global_ops"):
    # Initialization Op
    init = tf.initialize_all_variables()
    # Collect all summary Ops in graph
    merged_summaries = tf.summary.merge_all()

# Start a Session, using the explicitly created Graph
sess = tf.Session(graph=graph)

# Open a SummaryWriter to save summaries
writer = tf.summary.FileWriter('./Graph', sess.graph)

# Initialize Variables
sess.run(init)

def run_graph(input_tensor):
    """
    Helper function; runs the graph with given input tensor and saves summaries
    """
    feed_dict = {a: input_tensor}
    output, summary, step = sess.run([update_prev, merged_summaries, increment_step], feed_dict=feed_dict)
    writer.add_summary(summary, global_step=step)


# Run the graph with various inputs
run_graph([2,8])
run_graph([3,1,3,3])
run_graph([8])
run_graph([1,2,3])
run_graph([11,4])
run_graph([4,1])
run_graph([7,3,1])
run_graph([6,3])
run_graph([0,2])
run_graph([4,5,6])

# Writes the summaries to disk
writer.flush()

# Flushes the summaries to disk and closes the SummaryWriter
writer.close()

# Close the session
sess.close()

# To start TensorBoard after running this file, execute the following command:
# $ tensorboard --logdir='./improved_graph'


답변

Google Colab에서 모델을 인라인으로 표시하는 방법은 다음과 같습니다. 다음은 자리 표시자를 표시하는 매우 간단한 예입니다.

from IPython.display import clear_output, Image, display, HTML
import tensorflow as tf
import numpy as np
from google.colab import files

def strip_consts(graph_def, max_const_size=32):
    """Strip large constant values from graph_def."""
    strip_def = tf.GraphDef()
    for n0 in graph_def.node:
        n = strip_def.node.add()
        n.MergeFrom(n0)
        if n.op == 'Const':
            tensor = n.attr['value'].tensor
            size = len(tensor.tensor_content)
            if size > max_const_size:
                tensor.tensor_content = "<stripped %d bytes>"%size
    return strip_def

def show_graph(graph_def, max_const_size=32):
    """Visualize TensorFlow graph."""
    if hasattr(graph_def, 'as_graph_def'):
        graph_def = graph_def.as_graph_def()
    strip_def = strip_consts(graph_def, max_const_size=max_const_size)
    code = """
        <script>
          function load() {{
            document.getElementById("{id}").pbtxt = {data};
          }}
        </script>
        <link rel="import" href="https://tensorboard.appspot.com/tf-graph-basic.build.html" onload=load()>
        <div style="height:600px">
          <tf-graph-basic id="{id}"></tf-graph-basic>
        </div>
    """.format(data=repr(str(strip_def)), id='graph'+str(np.random.rand()))

    iframe = """
        <iframe seamless style="width:1200px;height:620px;border:0" srcdoc="{}"></iframe>
    """.format(code.replace('"', '&quot;'))
    display(HTML(iframe))


"""Create a sample tensor"""
sample_placeholder= tf.placeholder(dtype=tf.float32)
"""Show it"""
graph_def = tf.get_default_graph().as_graph_def()
show_graph(graph_def)

현재 로컬에서 실행하는 방식으로 Google Colab에서 Tensorboard 서비스를 실행할 수 없습니다. 또한 다음과 같은 방법으로 전체 로그를 드라이브로 내보낼 수 없으므로 summary_writer = tf.summary.FileWriter('./logs', graph_def=sess.graph_def)다운로드하여 로컬에서 볼 수 있습니다.


답변

Google 드라이브의 백업을 사용하고 https://www.google.com/drive/download/backup-and-sync/ 동기화 합니다. 훈련 중에 내 구글 드라이브에 저장되는 이벤트 파일은 내 컴퓨터의 폴더에 자동으로 동기화됩니다. 이 폴더를 logs. 텐서 보드의 시각화에 액세스하려면 명령 프롬프트를 열고 동기화 된 Google 드라이브 폴더로 이동 한 다음 다음을 입력 tensorboard --logdir=logs합니다..

따라서 내 드라이브를 내 컴퓨터와 자동으로 동기화 (백업 및 동기화 사용)하여 내 컴퓨터에서 훈련하는 것처럼 텐서 보드를 사용할 수 있습니다.

편집 :
도움이 될 수있는 노트북이 있습니다. https://colab.research.google.com/gist/MartijnCa/961c5f4c774930f4bdd32d51829da6f6/tensorboard-with-google-drive-backup-and-sync.ipynb