Tag Archives: Technology

Twitter Open Source-kan Heron, Framework Real Time Stream Processing

Satu lagi framework yang bergabung ke dalam ekosistem Big Data Open Source. Meramaikan percaturan dalam pemrosesan Big Data, khususnya real-time streaming data processing, bulan Mei lalu Twitter mengumumkan bahwa mereka meng-open-source-kan Heron, sistem real-time stream processing yang mereka kembangkan untuk menggantikan Apache Storm.

Setelah sebelumnya mengumumkan bahwa mereka mengganti framework pemrosesan real-time streaming mereka dari Storm ke Heron, dan menerbitkan paper mengenai arsitekturnya, baru setahun kemudian publik dapat ikut menggunakan dan mengembangkannya.

Alasan Twitter mengembangkan Heron pada awalnya adalah karena beberapa kesulitan yang mereka hadapi ketika menggunakan Storm, terutama ketika sistem yang mereka deploy sudah sangat besar. Beberapa kesulitan yang dihadapi di antaranya adalah kesulitan dalam hal profiling dan reasoning mengenai Storm worker di tingkat data dan tingkat topologi, alokasi resource yang bersifat statis, tidak adanya dukungan back-pressure, dan lain sebagainya.

Mengapa saat itu Twitter tidak beralih ke Apache Spark streaming atau Apache Flink misalnya, dan justru memutuskan untuk mengembangkan sendiri sistemnya secara internal? Alasan utamanya adalah peralihan framework tersebut akan menyebabkan mereka harus menulis ulang banyak sekali code dari sistem mereka yang sudah sangat besar. Sebab, sebagai pihak yang mengembangkan Storm, Twitter adalah pengguna Apache Storm yang paling lama, jauh sebelum Storm menjadi open source.

Heron didesain sebagai sebuah sistem yang memiliki backward compatibility dengan Apache Storm. Hal ini merupakan sebuah keputusan yang strategis, bukan saja untuk Twitter sendiri, namun juga untuk pengguna yang sudah mengimplementasikan Apache Storm, mereka dapat beralih ke Heron dengan relatif mudah.

Paradigma pemrosesan Heron sangat mirip dengan Apache Storm, di mana dasarnya adalah DAG (Direct Acyclic Diagram) yang disebut topology, dengan komponennya berupa spout dan bolt.

Heron dibangun dengan perubahan mendasar dalam arsitektur streamingnya, dari sistem berbasis thread, menjadi sebuah sistem berbasis proses. Heron juga didesain untuk deployment dalam cluster dengan mengintegrasikannya dengan scheduler open source yang powerful seperti Apache Mesos, Apache Aurora, Apache REEF atau Slurm.

Banyak yang dijanjikan dengan Heron, seperti misalnya 2-5 kali efisiensi, kemudahan dan stabilitas, dan lain sebagainya. Salah satu kelebihan utama Heron adalah sudah dibuktikan dalam skala yang besar di Twitter sendiri, dan kompatibilitasnya dengan Storm sebagai framework yang sudah banyak diimplementasi sebelumnya. Namun apakah masyarakat Big Data akan dengan serta merta mengadopsinya sebagai framework pilihan mereka, masih harus kita lihat bagaimana perkembangannya ke depan. Karena saat ini banyak sekali framework open source untuk pemrosesan streaming yang ada dan berkompetisi untuk menjadi yang terdepan, seperti misalnya Apache Spark, Apache Flink, Apache Samza, Apache Apex, atau bahkan Apache Storm sendiri yang juga telah me-release versi 1.0 dengan banyak perubahan dan perbaikan.

Baca juga : APACHE STORM 1.0 PENINGKATAN PERFORMA DAN SARAT FITUR BARU


Source : ID Big Data

Apache Storm 1.0 Peningkatan Performa dan Sarat Fitur Baru

Pada tanggal 12 April lalu versi terbaru dari Apache Storm dirilis. Taylor Goetz, VP Apache Software Foundation untuk project Apache Storm, menyatakan bahwa versi 1.0 ini merupakan sebuah titik yang penting dalam evolusi Apache Storm. Versi terbaru ini mengandung sejumlah besar fitur baru dan perbaikan kinerja.

Storm merupakan sebuah event processor yang memungkinkan dilakukannya proses data streaming secara terdistribusi. Aplikasi Storm terdiri dari komponen yang disebut dengan “spout” dan “bolt”, yang dikonfigurasi dalam sebuah Direct Acyclic Graph untuk merepresentasikan pemrosesan data. Ciri utama dari Storm adalah kemampuan untuk melakukan proses data secara real time.

Apache Storm versi 1.0 memiliki peningkatan performa yang cukup dramatis bahkan diklaim hingga 16 kali lebih cepat dari versi sebelumnya dengan pengurangan latensi hingga 60%. Selain performa ada beberapa fitur yang patut menjadi perhatian, diantaranya :

  1. Pacemaker, heartbeat daemon yang memiliki performa lebih baik dari Zookeeper
  2. Distributed Cache API, yang memungkinkan berbagi file antar topology
  3. High Availability Nimbus, mengatasi permasalahan single point of failure pada Nimbus proses
  4. Streaming Window API, yang menambahkan dukungan terhadap parameter window length dan sliding interval
  5. Automatic Backpressure, yang memungkinkan memperlambat spout secara otomatis ketika ambang batas dari ukuran task buffer terlampaui
  6. Resources Aware Scheduler, implementasi scheduler baru yang menggunakan ketersediaan memory dan CPU sebagai dasar untuk pengaturan task kepada worker
  7. Dynamic Worker Profiling, fitur baru ini memungkinkan pengguna untuk melihat data profile dari worker langsung dari Storm UI

Apache Storm 1.0 ini dapat didownload pada laman https://storm.apache.org/releases.html


Source : IDBigData

Deep Learning on Caffe-on-Spark

Distributed Deep Learning on Spark (Using Yahoo’s Caffe-on-Spark)

Caffe-on-Spark is a result of Yahoo’s early steps in bringing Apache Hadoop ecosystem and deep learning together on the same heterogeneous (GPU+CPU) cluster that may be open sourced depending on interest from the community.

To enable deep learning on these enhanced Hadoop clusters, we developed a comprehensive distributed solution based upon open source software libraries, Apache Spark and Caffe. One can now submit deep learning jobs onto a (Hadoop YARN) cluster of GPU nodes (using spark-submit).
Source :

Yahoo’s Caffe-on-Spark


To enable deep learning, Yahoo added GPU nodes into their Hadoop clusters with each node having 4 Nvidia Tesla K80 cards, each card with two GK210 GPUs. These nodes have 10x processing power than the traditional commodity CPU nodes they generally use in their Hadoop clusters.

GPU

Yahoo has progressively invested in building and scaling Apache Hadoop clusters with a current footprint of more than 40,000 servers and 600 petabytes of storage spread across 19 clusters.

Hadoop clusters are the preferred platform for large-scale machine learning at Yahoo. Deep learning is used in many of Yahoo’s products, such as Flickr’s Magic View feature which automatically tags all user photos, enabling Flickr end users to organize and find photos easily. Read “Picture This: NVIDIA GPUs Sort Through Tens of Millions of Flickr Photos” for more information on the feature.

To enable deep learning on these enhanced clusters, the Yahoo Big Data and Machine Learning team developed a comprehensive distributed solution based upon open source software libraries, Apache Spark and Caffe. Caffe-on-Spark enables multiple GPUs, and multiple machines to be used for deep learning.

Source :

Caffe on Spark for Deep Learning from Yahoo


Is Apache Spark a Good Framework for Implementating Deep Learning?

It Depends.
Yes, if your objectives are one or more of these:

  1. To quickly implement some aspect of DL using existing/emerging libraries, and you already have a Spark cluster handy. In that case, consider, e.g. guoding83128/OpenDL, Lightning-Fast Deep Learning on Spark, Implementing a Distributed Deep Learning Network over Spark
  2. To experiment with developing different ideas for distributed DL, e.g., variations on Downpour SGD or Parameter Server without having to learn a strange new compute model like CUDA.
  3. To experiment with potentially interesting architectures, e.g., using Spark CPUs to drive GPU coprocessors in a distributed context.
  4. For some situational reasons, your need to horizontally scale your huge dataset is only satisfiable with a Spark cluster and not, e.g., a single-chassis GPU box.
  5. Generally speaking, absolute speed (relative to other available approaches like GPU) is not the main concern.
  6. Etc.


No, if your objectives are one or more of (here the scenarios are biased toward situations that warrant GPU-based implementations):

  1. You want the optimal high performance/programming flexibility sweet spot of GPUs and can learn/already know CUDA / Caffe | Deep Learning Framework
  2. You don’t have a particular affinity for Spark/Java/Scala/Python and prefer to invest your time/effort in what is becoming the current dominant architectures for DL implementations (GPU/CUDA).
  3. You want to push the envelope even further (perhaps for not very good today-relevant reasons ) and go to FGPAs/ASICs and are willing to give up the flexibility of CPUs/GPUs.
  4. You want to work on leading-edge R&D and produce amazing refereed-journal results (e.g., “4 GPU DNN Beats Google’s 14,000-Machine Brain At Recognizing Cats and Jennifer Aniston”) on the most energy/cost efficient platforms today.
  5. Etc.

Source :

Apache Spark for Implementating Deep Learning


Apache Phoenix

Apache Phoenix is an open source, massively parallel, relational database layer on top of noSQL stores such as Apache HBase. Phoenix provides a JDBC driver that hides the intricacies of the noSQL store enabling users to create, delete, and alter SQL tables, views, indexes, and sequences; upsert and delete rows singly and in bulk; and query data through SQL. Phoenix compiles queries and other statements into native noSQL store APIs rather than using MapReduce enabling the building of low latency applications on top of noSQL stores.

Phoenix began as an internal project by the company salesforce.com out of a need to support a higher level, well understood, SQL language. It was originally open-sourced on GitHub and became a top-level Apache project on 22 May 2014. Apache Phoenix is included in the Hortonworks distribution for HDP 2.1 and above, is available as part of Cloudera labs, and is part of the Hadoop ecosystem.

Source :

Apache Phoenix


Apache Phoenix enables OLTP and operational analytics in Hadoop for low latency applications by combining the best of both worlds:

  • the power of standard SQL and JDBC APIs with full ACID transaction capabilities and
  • the flexibility of late-bound, schema-on-read capabilities from the NoSQL world by leveraging HBase as its backing store

Apache Phoenix is fully integrated with other Hadoop products such as Spark, Hive, Pig, Flume, and Map Reduce.

Who is using Apache Phoenix ?

who using phoenix

Apache Phoenix takes your SQL query, compiles it into a series of HBase scans, and orchestrates the running of those scans to produce regular JDBC result sets. Direct use of the HBase API, along with coprocessors and custom filters, results in performance on the order of milliseconds for small queries, or seconds for tens of millions of rows.

Apache Phoenix supports table creation and versioned incremental alterations through DDL commands. The table metadata is stored in an HBase table and versioned, such that snapshot queries over prior versions will automatically use the correct schema.

Source :

Apache Phoenix Official


Geospatial Dengan SOLR

Secara umum Solr dipergunakan untuk media penyimpanan peta yang biasanya di support oleh database seperti Oracle dan PostgreSQL. Data peta/map disimpan dalam format WKT supaya bisa di index dan di query oleh Apache Solr. Untuk visualisasi data peta/map nya menggunakan software open source juga yaitu GeoServer dimana sudah mensupport Solr sebagai data store ( Solr plugin ). Selain itu Solr juga mensupport spatial search seperti radius, distance dan filter search.


Penjelasan mudahnya, Solr ini adalah sebuah aplikasi mesin pencari seperti Google yang ditulis menggunakan bahasa pemrograman Java. Dan berikut ini adalah penjelasan yang lebih lengkap diambil dari web resmi Apache SOLR:

SolrTM is the popular, blazing fast open source enterprise search platform from the Apache LuceneTM project. Its major features include powerful full-text search, hit highlighting, faceted search, near real-time indexing, dynamic clustering, database integration, rich document (e.g., Word, PDF) handling, and geospatial search. Solr is highly reliable, scalable and fault tolerant, providing distributed indexing, replication and load-balanced querying, automated failover and recovery, centralized configuration and more. Solr powers the search and navigation features of many of the world’s largest internet sites. Solr is written in Java and runs as a standalone full-text search server within a servlet container such as Tomcat. Solr uses the Lucene Java search library at its core for full-text indexing and search, and has REST-like HTTP/XML and JSON APIs that make it easy to use from virtually any programming language. Solr’s powerful external configuration allows it to be tailored to almost any type of application without Java coding, and it has an extensive plugin architecture when more advanced customization is required.

Solr mendukung data lokasi untuk digunakan dalam ruang / pencarian geospasial. Dengan menggunakan pencarian spasial, Anda bisa melakukan :

  • Index points or other shapes
  • Filter search results by a bounding box or circle or by other shapes
  • Sort or boost scoring by distance between points, or relative area between rectangles
  • Generate a 2D grid of facet count numbers for heatmap generation or point-plotting.

Source :

SOLR Data Store

Spatial Search

 

Perencanaan Kerjasama Solusi247 dengan AMIKOM-Yogyakarta

Jumat, 19 Februari 2016, beberapa perwakilan dari Solusi247 yaitu Bpk. Beno K. Pradekso, Sigit Prasetyo dan Mugi Prayitno, mengadakan meeting dengan AMIKOM-Battle of Surabaya di Yogyakarta, membahas perihal perencanaan kerjasama mengenai riset Big Data untuk storage dan proses rendering film.

amikom2

Berbicara tentang Battle of Surabaya, film ini merupakan film karya anak bangsa yang rilis pada tahun 2015. Pembuatan film ini menghabiskan waktu selama 3 tahun. Film yang diluncurkan oleh MSV pictures ini meluncurkan film animasi perdana mereka pada bulan Agustus 2015. Film ini menceritakan tentang perjuangan Indonesia pada peristiwa 10 November 1945.

amikom1


Workshop H-grid247 di Institute Pertanian Bogor (IPB)

Workshop Big Data Hadoop, hands on H-Grid247 di Institut Pertanian Bogor (IPB), Darmaga. dihadiri oleh mahasiswa dan praktisi untuk mempelajari tahapan-tahapan dari tools Hadoop 247. bapak Solechoel Arifin dari Solusi247 menjelaskan beberapa tools, seperti HDFS (Hadoop Distibuted File System), Hadoop Cluster, Hadoop Component, MapReduce dan lainnya.


workshophgrid247IPB


Penjelasan Singkat Hadoop Distributed File System (HDFS)

HDFS ini pada dasarnya adalah sebuah tempat atau direktori di komputer dimana data hadoop disimpan. Meskipun direktori ini di “format” supaya bisa bekerja sesuai dengan spesifikasi dari Hadoop.

Meskipun namanya file system, HDFS ini tidak sejajar dengan jenis file system dari sistem operasi misalnya NTFS, FAT32. HDFS ini menumpang diatas file system milik sistem operasi linux atau windows.

Data di Hadoop disimpan di cluster. Cluster biasanya terdiri dari banyak node atau komputer/server. Setiap node di dalam cluster ini harus terinstall Hadoop untuk bisa jalan.

Kelemahan di HDFS hadoop versi pertama adalah jika name node mati. Maka seluruh cluster tidak bisa digunakan sampai name node baru dipasang di cluster. Hadoop juga bisa dijalankan dalam single node. Biasanya single node ini digunakan hanya untuk training atau development. Bukan untuk produksi.

Setiap data atau file yang disimpan di HDFS selalu memiliki lebih dari satu copy. Ini disebut Refplication Factor (RF). Secara default RF adalah 3. Artinya satu file disimpan di 3 data node sehingga jika ada satu data node yang rusak, maka data node yang lain bisa memberikan filenya. Setiap 3 detik sekali, data node mengirim sinyal, disebut heartbeat, ke name node untuk menunjukkan bahwa data node masih aktif. kalau dalam 10 menit name node tidak menerima heartbeat dari data node, maka data node tersebut dianggap rusak atau tidak berfungsi sehingga setiap request read/write dialihkan ke node lain. Secara umum begini penyimpanan data di name node dan data node.

nodes

Source :

Hadoop Distributed File System (HDFS)


Hadoop Cluster

Sebuah cluster Hadoop adalah tipe khusus cluster komputasi yang dirancang khusus untuk menyimpan dan menganalisa data dalam jumlah besar yang tidak terstruktur dalam lingkungan komputasi terdistribusi.

hadoop cluster

Source :

Hadoop Cluster


Map Reduce

MapReduce adalah model pemrograman rilisan Google yang ditujukan untuk memproses data berukuran raksasa secara terdistribusi dan paralel dalam cluster yang terdiri atas ribuan komputer. Dalam memproses data, secara garis besar MapReduce dapat dibagi dalam dua proses yaitu proses Map dan proses Reduce. Kedua jenis proses ini didistribusikan atau dibagi-bagikan ke setiap komputer dalam suatu cluster (kelompok komputer yang salih terhubung) dan berjalan secara paralel tanpa saling bergantung satu dengan yang lainnya.

map reduce

Proses Map bertugas untuk mengumpulkan informasi dari potongan-potongan data yang terdistribusi dalam tiap komputer dalam cluster. Hasilnya diserahkan kepada proses Reduce untuk diproses lebih lanjut. Hasil proses Reduce merupakan hasil akhir yang dikirim ke pengguna.

Untuk menggunakan MapReduce, seorang programer cukup membuat dua program yaitu program yang memuat kalkulasi atau prosedur yang akan dilakukan oleh proses Map dan Reduce. Jadi tidak perlu pusing memikirkan bagaimana memotong-motong data untuk dibagi-bagikan kepada tiap komputer, dan memprosesnya secara paralel kemudian mengumpulkannya kembali. Semua proses ini akan dikerjakan secara otomatis oleh MapReduce yang dijalankan diatas Google File System.

Source :

MapReduce


Big Data 2.0

Big Data 2.0 is the next generation of Big Data to explore the power of data to bring data awareness and take more advantage from the data. Previous Big Data is focusing on the technologies used to process huge volume of data; Big Data 2 is focusing on high latency and transformational insight. What is actually in the data and what value within data? That what are going to be exploited.

Big Data 2.0 bring possibilities to analyze a variety of massive data set from multiple points of data sources both in batch and real time; sensors, social media, devices and internet, to gain competitive insight, to establish the value of the data, to provision that data to different people and applications that need the data.

bigdata20

More people will gain access to the data; time to value will be accelerated. Using Big Data in a real time fashion can be an extremely efficient way to constantly search for optimal solutions. Especially in environments that are in constant flux such as traffic, stock markets or energy usage, big data can help optimize actual solutions and bring about reduced cost or increased revenue. Big Data can be applied to ensure a constant flow of traffic while constantly analyzing the current traffic situation and divert traffic on the fly when required. The energy sector Big Data applications can be used to coordinate the future smart grid where the location of energy production and energy usage will vary almost constantly. Data cleansed and processed and decisions are made, all without any human intervention by deploying real-time alerts for data quality issues.

In business environments the increasing amount of information collected can also be used to explore new ways of production, new delivery processes, new markets, new customers, etc. By closely recombining data, new patterns emerge, from which better or new insights can be derived. This could lead businesses to reorganize the way they manufacture their product or re-align their logistics in order to reduce time-to-market, manufacturing cost or enhance quality of the product and service. From a commercial perspective studying data patterns from customers and prospects leads to better insight into customer behavior and changing market conditions.

More opportunities will be carried from lot information being collected and captured.

  • Identify new market segments. Exploring big data sets of commercial information not only leads to better customer insight
  • Create customer centric assortments. Gauge the probability of selling a particular product at certain time and place ultimately optimizing assortments by location, time and profitability. Correlate customer data from multiple channels to have a better understanding of customers by targeting the right customers with the right products
  • Online advertising. Defining marketing tactics at micro segment level with higher returns on advertising investment
  • Online business. Provide offering in real time based on customer preferences
  • Product Innovation. Using information captured from products via sensor sent the data over internet, use the information to make product more efficient
  • Provide services or products that resonate with consumers. Transform enormous tweets and unstructured data from internet into insights
  • Target-sharing program to drive exceptionally high turnout. Asses individual online activities and ascertain campaign tactics were producing offline results
  • Supply chain operation. Monitor physical product movement by capturing data from RFID and micro sensors
  • Retail chain operation. Identify overstocks at one store that could be sold in another by capturing pricing, promotion and loyalty data to create insights into what, when and why customer buy
  • Rail car sensor track. Pull data from sensor to prevent disaster
  • Intelligent rail cars. Store data for whole ecosystem; cars, rails, rail roads, crossing, whether pattern that justifyrail movement and so on
  • GPS based data for shipment tracking and logistic

 

Hadoop 2.0: Let’s Yarn!

Hadoop 2.0: Let’s Yarn!

“Multiple Application to run on the same platform”

YARN is a re-architecture of Hadoop that allows multiple applications to run on the same platform.

With YARN, applications run “in” Hadoop, instead of “on” Hadoop. YARN allows the simultaneous execution of multiple applications on HDFS, the distributed file system while providing better monitoring of data throughout its lifecycle. Analyze batch processes, but also data streams and can also analyze interactive query.

YARN2


With the increasing use of big data in business, comes the need to expand the functionality of hadoop nature from batch processing into various types of processes, such as interactive, stream, online, and so forth. In addition, with the increasing amount of resource that is managed in hadoop, there’s a need for a system that allows the utilization of these resources more efficiently. These needs can be met by the presence of Yarn, which marks the birth of Hadoop 2.

lets yarn

YARN is a re-architecture of Hadoop that allows multiple applications to run on the same platform. With YARN, applications run “in” Hadoop, instead of “on” Hadoop.
YARN allows the simultaneous execution of multiple applications on HDFS, the distributed file system while providing better monitoring of data throughout its lifecycle. It enable us to perform not only batch processes, but also data streams and interactive queries with hadoop.

Yarn offers the following trait:
Flexible – Enables other purpose-built data processing models beyond MapReduce (batch), such as interactive and streaming
Efficient – Double processing IN Hadoop on the same hardware while providing predictable performance & quality of service
Shared – Provides a stable, reliable, secure foundation and shared operational services across multiple workloads

YARN enhances the power of a Hadoop compute cluster in the following ways:

  • Scalability 

The processing power in data centers continues to grow quickly. Because YARN ResourceManager focuses exclusively on scheduling, it can manage those larger clusters much more easily.

  • Compatibility with MapReduce

Existing MapReduce applications and users can run on top of YARN without disruption to their existing processes.

  • Improved cluster utilization

The Resource Manager is a pure scheduler that optimizes cluster utilization according to criteria such as capacity guarantees, fairness, and SLAs. Also, unlike before, there are no named map and reduce slots, which helps to better utilize cluster resources.

  • Support for workloads other than MapReduce

Additional programming models such as graph processing and iterative modeling are now possible for data processing. These added models allow enterprises to realize near real-time processing and increased ROI on their Hadoop investments.

  • Agility

With MapReduce becoming a user-land library, it can evolve independently of the underlying resource manager layer and in a much more agile manner.

Implementation of Yarn (and therefore Hadoop 2) opens wider possibilities for business to gain advantages from big data.


Source :

Let’s YARN!

Kerjasama Solusi247 Dengan ITS

PT. Dua Empat Tujuh dan Institut Teknologi Sepuluh Nopember (ITS) Surabaya telah melakukan penandatanganan Memorandum of Understanding (MoU) pada hari Rabu, 8 Mei 2013. Bertempat di gedung senat rektorat ITS Surabaya, acara penandatanganan ini dihadiri oleh Wakil rektor di bidang penelitian, inovasi dan kerjasama ITS, Bapak Prof. Dr. Darminto.

Hadir juga Bapak Prof. Surjo Adji selaku kepala badan kerjasama, inovasi dan bisnis, Bapak Dr. Saut Gurning selaku direktur pusat kerjasama dan promosi serta Bapak Prof. Gamantyo. Dari PT. Dua Empat Tujuh, hadir Bapak Beno Pradekso selaku direktur utama beserta team, serta hadir juga Bapak Dr. Andrian Andaya selaku direktur International Research Centre for Telecommunications and Radar (IRCTR) Indonesia.

Selain itu juga, acara ini dihadiri oleh dosen, pengurus rektorat beserta mahasiswa ITS. Maksud dan tujuan dari perjanjian kerjasama ini adalah untuk mengadakan kerjasama dalam bidang penelititan, pendidikan atau pelatihan, pengembangan produk dan pemasaran, penyediaan alat, tempat kerja, fasilitas dan dana, pertukaran tenaga ahli dan teknisi, serta pertemuan ilmiah, dalam rangka pengembangan industri teknologi informasi dan telekomunikasi sesuai dengan fungsi serta wewenang dari masing-masing pihak. Sebelum penandatangan, dipaparkan mengenai pengenalan perusahaan PT. Dua Empat Tujuh beserta produk dan riset yang dimiliki. Setelah penandatanganan dilakukan diskusi ringan mengenai permasalahan kelautan dan perairan Indonesia. Diharapkan PT. Dua Empat Tujuh dan ITS mampu bersinergi untuk menangani permasalah bangsa yang ada untuk menjadi solusi yang tepat dan efektif untuk bangsa Indonesia.