Category Archives: 247 News

HGrid (Hadoop Grid) – Tools Pemroses Big Data Tercepat dan Terefisien dari Indonesia

Tidak bisa dipungkiri, semakin cepatnya perkembangan teknologi saat ini menjadikan semakin banyaknya data yang dihasilkan setiap harinya. Data-data yang terdistribusi sudah tak terhitung lagi jumlahnya.  Bayangkan saja, semakin banyak pengguna smartphone, sudah dipastikan semakin banyak pula pengguna media social. Jika dihitung dari jumlah penduduk Indonesia, kemungkinan bisa 90% nya adalah pengguna media social. Sudah dipastikan juga data yang terdistribusi di dunia maya sangat besar jumlahnya. Lonjakan jumlah data tersebut mengakibatkan ledakan data atau biasa disebut dengan BIG DATA.

Menanggapi permasalahan tersebut, SOLUSI247 menawarkan kepada dunia tools big data processing tercepat dan termudah dari Indonesia. Tools ini dinamakan HGRID atau lengkapnya adalah Hadoop Grid.

Mengapa tercepat dan termudah?

HGRID sengaja dibuat dengan tujuan untuk mempercepat dan mempermudah pemrosesan big data dikarenakan salah satu keunggulan dari HGRID adalah TANPA CODING. Bayangkan saja, jika seharusnya para programmer atau developer melakukan pemrosesan big data dilakukan dengan coding yang biasanya membutuhkan waktu yang cukup lama untuk proses pengerjaannya, dengan menggunakan HGRID para programmer atau developer hanya perlu melakukan drag and drop  dalam mengerjakan pemrosesan big data. Keunggulan HGRID yang lainnya adalah tools ini bersifat open source. HGRID juga menyediakan penyimpanan besar-besaran untuk semua jenis dan tipe data. HGRID memiliki kekuatan yang besar dalam mengerjakan pemrosesan data, serta mampu untuk menangani tugas atau pekerjaan tanpa henti.

Dikarenakan kualitas HGRID yang sudak tidak diragukan lagi, HGRID sudah dipakai untuk melakukan pemrosesan data di beberapa perusahaan telco ternama di Indonesia.

Buka Puasa Bersama dan Santunan 100 Anak Yatim

خُذْ مِنْ أَمْوَٰلِهِمْ صَدَقَةً تُطَهِّرُهُمْ وَتُزَكِّيهِم بِهَا وَصَلِّ عَلَيْهِمْ ۖ إِنَّ صَلَوٰتَكَ سَكَنٌ لَّهُمْ ۗ وَٱللَّهُ سَمِيعٌ عَلِيمٌ

Artinya: "Ambillah zakat dari sebagian harta mereka, dengan zakat itu kamu membersihkan dan mensucikan mereka dan berdoalah untuk mereka. Sesungguhnya doa kamu itu (menjadi) ketentraman jiwa bagi mereka. Dan Alloh maha mendengar lagi maha mengetahui". (Q.S At-Taubah ayat 103)

Rabu, 14 Juni 2017 silam, Solusi247 melaksanakan kegiatan CSR di Pondok Pesantren Al-Qur'an Al-Hidayah - Yayasan Hidayatul Islam Jakarta. Pondok pesantren tersebut berlokasi di Jl. Munggang No. 50 RT.08/04 Kel. Balekambang, Kramat Jati, Jakarta Timur - 13530.

Bulan Ramadhan adalah bulan yang penuh rahmat dan berkah, bulan dimana orang-orang muslim berlomba-lomba mendapatkan pahala, karena setiap perbuatan baik di bulan ramadhan niscaya pahala yang diberikan akan dilipatgandakan oleh Allah SWT, aamiin. Dalam rangka bulan ramadhan ini pun, SOLUSI247 ikut serta dalam kegiatan CSR dimana inti dari acara tersebut adalah santunan kepada 100 anak yatim yang menghuni pondok pesantren Al-Qur'an Al-Hidayah.

Didalam kegiatan ini, SOLUSI247 sangat sadar akan kewajiban untuk berbagi rezeki kepada orang-orang yang membutuhkan terutama kepada anak-anak yatim yang usianya masih sangat belia.

CSR (Corporate Social Responsibility) Solusi247 berisi kegiatan siraman rohani oleh Ustad Masyudi, pembacaan ayat-ayat suci Al-Qur'an, santunan 100 anak yatim, buka puasa bersama, shalat maghrib berjama'ah dan diakhiri dengan shalat tarawih berjama'ah. Kegiatan CSR Solusi247 ini tentu saja bertujuan untuk menjalin silaturahmi dan berbagi rezeki kepada sesama umat muslim yang membutuhkan. Kegiatan yang dimulai dari pukul 16.00 WIB berakhir pada pukul 20.30 WIB.

Solusi247: “Big Data Untuk Indonesia” – Konferensi Big Data Indonesia 2016

Jakarta, 2016

Sudah setahun setelah diadakannya Konferensi Bigdata Indonesia 2.0 (KBI2015), kali ini Komunitas IdBigData lagi-lagi menyelenggarakan kegiatan berskala Nasional yaitu Konfe  rensi Bigdata Indonesia 3.0 (KBI2016). Berbeda dengan tahun lalu, KBI2016 kali ini diselenggarakan di Ibu Kota Jakarta. Kegiatan yang berlangsung selama 2 hari tanggal 7-8 Desember 2016 ini diadakan di Auditorium Gedung BPPT 1 Jl. M. H. Thamrin No. 8 Kb. Sirih, Menteng, Jakarta Pusat.

Konferensi Bigdata Indonesia 2016 turut mengundang narasumber-narasumber yang ahli di bidangnya, seperti Prof. Drs. H. Muhammad Nasir, M.Si, Ak, Ph.D, CA – Menteri Riset Teknologi dan Pendidikan Tinggi Republik Indonesia, Rudiantara – Menteri Komunikasi dan Informatika Republik Indonesia, Beno Kunto Pradekso – CEO SOLUSI247, Komang Aryasa – Deputy Research and Big Data PT. Telekomunikasi Indonesia, Ainun Najib – Head of Data at Traveloka, Aldila Septiadi SE, Msc, - Digital and Data Analytic Manager of Danone dan masih banyak lagi.

Sebagai sponsor utama yang berdampingan dengan IBM, SOLUSI247 mengirimkan narasumber-narasumber ahli seperti Beno Kunto Pradekso – CEO SOLUSI247, Aria Rahendra – Chief Marketing Officer SOLUSI247, Mugi Prayitno – Chief of Architect SOLUSI247, Imam Turmudzi - Big Data Project Manager SOLUSI247 dan Dolants - Product Development Manager Labs247.

Mengangkat tema “Leveraging National Capacities and Capabilities”, Konferensi Bigdata Indonesia 2016 mampu mempertemukan para praktisi, penggiat, dan pengguna Big Data di Indonesia.


 

Bertemu

KBI 2016 merupakan ajang bertemunya para ahli, peneliti, praktisi dan peminat big data di Indonesia. Mengumpulkan lebih dari 30 pembicara dari industri, instansi pemerintah, lembaga penelitian dan universitas-universitas terkemuka di Indonesia, dan lebih dari 400 peserta dari berbagai latar belakang dan keahlian, dengan satu kesamaan, yaitu ketertarikan terhadap teknologi big data, pengembangan dan pemanfaatannya.

Bersinergi

Dengan latar belakang peserta dan pembicara yang beragam, KBI 2016 merupakan kesempatan untuk memadukan pengalaman yang luas, pengetahuan, dasar teori yang mendalam, dan visi ke depan yang bertujuan untuk kemajuan dan kemandirian bangsa. KBI 2016 khususnya, dan idBigdata pada umumnya, diharapkan menjadi titik temu berbagai kalangan untuk menjalin kerja sama dan bersinergi dalam pengembangan dan pemanfaatan big data.

Berinovasi

Dengan terjalinnya kerja sama yang baik dari kalangan dengan latar belakang yang beragam tersebut diharapkan terlahir karya- karya inovatif di bidang big data, yang dapat bermanfaat bagi kemajuan industri dan kesejahteraan masyarakat Indonesia.


 

CeBIT 2016: The Event and 247 Products

Menawarkan acara IT dan program konferensi untuk para profesional, CeBIT mendefinisikan tren TI terkini, menghadirkan topik oleh pembicara berkaliber tinggi dan diskusi panel depan, dan menampilkan inovasi produk dari seluruh dunia.

Cdj6lzbUkAEugPL

Di event yang diselenggarakan mulai tanggal 14 dan berakhir pada tanggal 18 Maret 2016 kemarin, Solusi247 ikut berpartisipasi sebagai exhibitor di Konferensi Teknologi CeBIT 2016 dengan memamerkan produk Braja dan Yava.

Perwakilan yang dikirim ke German untuk mengikuti Konferensi Teknologi CeBIT 2016 dari Solusi247 adalah bpk. Ir. Solechoel Arifin, MSc.EE dan bpk. Ir. Joko Suyono, MSc.EE.

Solusi247 berada dikawasan :

Ministry of Industry of the Republic of Indonesia/Dua Empat Tujuh,
PT/SOLUSI247
Deutsche Messe – Hall 003 B01
Messagelande
30521
Hannover – Germany

CdlQamSUEAAQJjE

CdjJZYOUsAErDo3

CdzQJwUUAAAsL0b

CdlQamVVIAAiEfI


Why Using Braja ?

Braja Big Data Appliance is an integrated Big Data solution aims to facilitate and accelerate Big Data adoption in an organization. It is designed to fulfill the need in processing large and complex data in which common data processing application is insufficient. By integrating a variety of Big Data framework and components into a single product, Braja is the affordable and highly scalable Big Data infrastructure for your business.

  • Reliable

Built on Apache Hadoop, with a simple but powerful architecture designed specifically for data reliability in case of disk, node or network errors and failures. It’s designed to scale up from single server to thousands of machines, each delivering local computation and storage.

  • Integrated Systems

Braja is a complete Hadoop Big Data platform with low total cost of ownership. It combines hardware and the comprehensive Yava Hadoop data platform into a fully intergrated and ready to use system, enables you to focus more on your business, not the technology behind it.

  • Fast Support

With a deep experience and know how in implementation and maintenance big data clusters and data warehouse systems, Braja solution and support ensures the delivery of a smoothly operational and running system with maximum application performance.

Braja Products

Power Level

power level

Velocity Level

velocity level

Pilot Level

pilot level

Source :

Braja 247


Yava

Yava Hadoop is a 100% open source compilation of Big Data platform that use of the power of Apache Hadoop ecosystem and designed to help accelerate the adoption of Hadoop implementation and its ecosystem in Indonesia.

With the support from YARN cluster management, Yava provides a wide range of data access and processing capabilities: batch, streaming, interactive and real time in a single cluster.

YAVA_bagan

Source :

Yava 247


 

Deep Learning on Caffe-on-Spark

Distributed Deep Learning on Spark (Using Yahoo’s Caffe-on-Spark)

Caffe-on-Spark is a result of Yahoo’s early steps in bringing Apache Hadoop ecosystem and deep learning together on the same heterogeneous (GPU+CPU) cluster that may be open sourced depending on interest from the community.

To enable deep learning on these enhanced Hadoop clusters, we developed a comprehensive distributed solution based upon open source software libraries, Apache Spark and Caffe. One can now submit deep learning jobs onto a (Hadoop YARN) cluster of GPU nodes (using spark-submit).
Source :

Yahoo’s Caffe-on-Spark


To enable deep learning, Yahoo added GPU nodes into their Hadoop clusters with each node having 4 Nvidia Tesla K80 cards, each card with two GK210 GPUs. These nodes have 10x processing power than the traditional commodity CPU nodes they generally use in their Hadoop clusters.

GPU

Yahoo has progressively invested in building and scaling Apache Hadoop clusters with a current footprint of more than 40,000 servers and 600 petabytes of storage spread across 19 clusters.

Hadoop clusters are the preferred platform for large-scale machine learning at Yahoo. Deep learning is used in many of Yahoo’s products, such as Flickr’s Magic View feature which automatically tags all user photos, enabling Flickr end users to organize and find photos easily. Read “Picture This: NVIDIA GPUs Sort Through Tens of Millions of Flickr Photos” for more information on the feature.

To enable deep learning on these enhanced clusters, the Yahoo Big Data and Machine Learning team developed a comprehensive distributed solution based upon open source software libraries, Apache Spark and Caffe. Caffe-on-Spark enables multiple GPUs, and multiple machines to be used for deep learning.

Source :

Caffe on Spark for Deep Learning from Yahoo


Is Apache Spark a Good Framework for Implementating Deep Learning?

It Depends.
Yes, if your objectives are one or more of these:

  1. To quickly implement some aspect of DL using existing/emerging libraries, and you already have a Spark cluster handy. In that case, consider, e.g. guoding83128/OpenDL, Lightning-Fast Deep Learning on Spark, Implementing a Distributed Deep Learning Network over Spark
  2. To experiment with developing different ideas for distributed DL, e.g., variations on Downpour SGD or Parameter Server without having to learn a strange new compute model like CUDA.
  3. To experiment with potentially interesting architectures, e.g., using Spark CPUs to drive GPU coprocessors in a distributed context.
  4. For some situational reasons, your need to horizontally scale your huge dataset is only satisfiable with a Spark cluster and not, e.g., a single-chassis GPU box.
  5. Generally speaking, absolute speed (relative to other available approaches like GPU) is not the main concern.
  6. Etc.


No, if your objectives are one or more of (here the scenarios are biased toward situations that warrant GPU-based implementations):

  1. You want the optimal high performance/programming flexibility sweet spot of GPUs and can learn/already know CUDA / Caffe | Deep Learning Framework
  2. You don’t have a particular affinity for Spark/Java/Scala/Python and prefer to invest your time/effort in what is becoming the current dominant architectures for DL implementations (GPU/CUDA).
  3. You want to push the envelope even further (perhaps for not very good today-relevant reasons ) and go to FGPAs/ASICs and are willing to give up the flexibility of CPUs/GPUs.
  4. You want to work on leading-edge R&D and produce amazing refereed-journal results (e.g., “4 GPU DNN Beats Google’s 14,000-Machine Brain At Recognizing Cats and Jennifer Aniston”) on the most energy/cost efficient platforms today.
  5. Etc.

Source :

Apache Spark for Implementating Deep Learning


Apache Phoenix

Apache Phoenix is an open source, massively parallel, relational database layer on top of noSQL stores such as Apache HBase. Phoenix provides a JDBC driver that hides the intricacies of the noSQL store enabling users to create, delete, and alter SQL tables, views, indexes, and sequences; upsert and delete rows singly and in bulk; and query data through SQL. Phoenix compiles queries and other statements into native noSQL store APIs rather than using MapReduce enabling the building of low latency applications on top of noSQL stores.

Phoenix began as an internal project by the company salesforce.com out of a need to support a higher level, well understood, SQL language. It was originally open-sourced on GitHub and became a top-level Apache project on 22 May 2014. Apache Phoenix is included in the Hortonworks distribution for HDP 2.1 and above, is available as part of Cloudera labs, and is part of the Hadoop ecosystem.

Source :

Apache Phoenix


Apache Phoenix enables OLTP and operational analytics in Hadoop for low latency applications by combining the best of both worlds:

  • the power of standard SQL and JDBC APIs with full ACID transaction capabilities and
  • the flexibility of late-bound, schema-on-read capabilities from the NoSQL world by leveraging HBase as its backing store

Apache Phoenix is fully integrated with other Hadoop products such as Spark, Hive, Pig, Flume, and Map Reduce.

Who is using Apache Phoenix ?

who using phoenix

Apache Phoenix takes your SQL query, compiles it into a series of HBase scans, and orchestrates the running of those scans to produce regular JDBC result sets. Direct use of the HBase API, along with coprocessors and custom filters, results in performance on the order of milliseconds for small queries, or seconds for tens of millions of rows.

Apache Phoenix supports table creation and versioned incremental alterations through DDL commands. The table metadata is stored in an HBase table and versioned, such that snapshot queries over prior versions will automatically use the correct schema.

Source :

Apache Phoenix Official


Geospatial Dengan SOLR

Secara umum Solr dipergunakan untuk media penyimpanan peta yang biasanya di support oleh database seperti Oracle dan PostgreSQL. Data peta/map disimpan dalam format WKT supaya bisa di index dan di query oleh Apache Solr. Untuk visualisasi data peta/map nya menggunakan software open source juga yaitu GeoServer dimana sudah mensupport Solr sebagai data store ( Solr plugin ). Selain itu Solr juga mensupport spatial search seperti radius, distance dan filter search.


Penjelasan mudahnya, Solr ini adalah sebuah aplikasi mesin pencari seperti Google yang ditulis menggunakan bahasa pemrograman Java. Dan berikut ini adalah penjelasan yang lebih lengkap diambil dari web resmi Apache SOLR:

SolrTM is the popular, blazing fast open source enterprise search platform from the Apache LuceneTM project. Its major features include powerful full-text search, hit highlighting, faceted search, near real-time indexing, dynamic clustering, database integration, rich document (e.g., Word, PDF) handling, and geospatial search. Solr is highly reliable, scalable and fault tolerant, providing distributed indexing, replication and load-balanced querying, automated failover and recovery, centralized configuration and more. Solr powers the search and navigation features of many of the world’s largest internet sites. Solr is written in Java and runs as a standalone full-text search server within a servlet container such as Tomcat. Solr uses the Lucene Java search library at its core for full-text indexing and search, and has REST-like HTTP/XML and JSON APIs that make it easy to use from virtually any programming language. Solr’s powerful external configuration allows it to be tailored to almost any type of application without Java coding, and it has an extensive plugin architecture when more advanced customization is required.

Solr mendukung data lokasi untuk digunakan dalam ruang / pencarian geospasial. Dengan menggunakan pencarian spasial, Anda bisa melakukan :

  • Index points or other shapes
  • Filter search results by a bounding box or circle or by other shapes
  • Sort or boost scoring by distance between points, or relative area between rectangles
  • Generate a 2D grid of facet count numbers for heatmap generation or point-plotting.

Source :

SOLR Data Store

Spatial Search

 

Solusi 247 Wakili Indonesia di Konferensi Teknologi CeBIT 2016

CeBIT 2016 akan dilaksanakan di Hannover, Germany pada tanggal 14-18 Maret mendatang. Akan ada beberapa perusahaan IT ternama di Indonesia yang ikut serta dalam Konferensi CeBIT 2016 nanti termasuk Solusi 247. Solusi247 akan ada di kawasan Ministry of Industry of the Republic of Indonesia/Dua Empat Tujuh, PT/SOLUSI247, Deutsche Messe – Hall 003 B01, Messagelande 30521, Hannover – Germany.

Selain Solusi 247, akan ada beberapa perusahaan IT yang lainnya seperti Delapan Sebelas Indonesia, Dreambender Indonesia, Agate Studios, Amirage.J.SPOT, Anantarupa Studio, Data Driven Asia, dll.

CeBIT sendiri merupakan acara global tahunan yang menjadi barometer tren teknologi dunia terkini yang biasa diselenggarakan di Hannover, Jerman. Diperkirakan akan ada sekitar lebih dari 3.300 peserta pameran dari 70 negara yang akan menampilkan berbagai jenis aplikasi digital hasil penelitian dan pengembangan hingga produk-produk yang siap untuk dilepas ke pasaran di bidang augmented reality, big data, business intelligence, business process, e-learning, gamification, Internet of Things di sektor kesehatan, secure system, telekomunikasi, dan lain-lain.

Melalui Paviliun Nasional Indonesia yang merupakan konsultan acara internasional, acara ini didukung penuh oleh Kementerian Perindustrian RI, Kedutaan Besar RI Berlin, Konsulat Jenderal RI Hamburg dan Indonesian Trade Promotion Center/ITPC Hamburg. Para perusahaan IT ternama di Indonesia ini akan menampilkan berbagai produk terkininya dengan harapan mendapatkan exposure global dan pengaruh yang lebih luas terhadap bisnisnya.

Perencanaan Kerjasama Solusi247 dengan AMIKOM-Yogyakarta

Jumat, 19 Februari 2016, beberapa perwakilan dari Solusi247 yaitu Bpk. Beno K. Pradekso, Sigit Prasetyo dan Mugi Prayitno, mengadakan meeting dengan AMIKOM-Battle of Surabaya di Yogyakarta, membahas perihal perencanaan kerjasama mengenai riset Big Data untuk storage dan proses rendering film.

amikom2

Berbicara tentang Battle of Surabaya, film ini merupakan film karya anak bangsa yang rilis pada tahun 2015. Pembuatan film ini menghabiskan waktu selama 3 tahun. Film yang diluncurkan oleh MSV pictures ini meluncurkan film animasi perdana mereka pada bulan Agustus 2015. Film ini menceritakan tentang perjuangan Indonesia pada peristiwa 10 November 1945.

amikom1


Solusi247 Menjadi Finalis LIPI SBII Award 2015

Penghargaan untuk Solusi247 sebagai finalis LIPI SBII Award 2015, menjadi salah satu finalis LIPI SCIENCE BASED INDUSTRIAL INNOVATION AWARD 2015.


LIPI SBII Award 2015

Dalam ajang “Science Based Indutrial Innovation Award (LIPI SBII Award)” Tahun 2015, Lembaga Ilmu Pengetahuan Indonesia (LIPI) memberikan penghargaan kepada seluruh perusahaan industri yang melakukan inovasi dalam mengembangkan industri berbasis riset.

Kepala LIPI, Prof. Dr. Iskandar Zulkarnain, mengatakan, penghargaan ini menjadi bukti bahwa Indonesia memiliki industri yang bisa maju kedepannya.

Tercatat, ada 250 perusahaan yang ikut serta. Hal ini, mengalami lonjakan dari tahun 2013, dimana hanya 66 perusahaan saja ikut berkompetisi. Melalui ajang ini, LIPI juga berkeinginan besar mengajak kerjasama kalangan perguruan tinggi.

Ajang “Science Based Innovation Award (LIPI SBII Award)” Tahun 2015 sendiri menyediakan dua kategori penghargaan yakni, Life Science dan Physical Science. Dalam penilaian, dewan juri sulit menentukan pemenang karena semuanya berupaya memberikan inovasi terbaiknya.

Setelah melalui penyaringan, terpilih 10 finalis yang lulus salah satunya PT. Dua Empat Tujuh (Solusi 247).

finalisLIPIa

finalisLIPIb

Melalui ajang ini, kepala LIPI, Prof. Iskandar Zulkarnain, berharap pemerintah memberikan dukungan dan kontribusi kepada perusahaan industri yang menujukkan komitmennya dan melakukan inovasi berbasis riset, lewat dukungan keuangan dan fasilitas yang memadai. Bahkan, masalah kurangnya jumlah peminat sebagai peneliti di Indonesia pun harus menjadi salah satu perenungan bagi pemerintah.

“Faktanya, penyebab lemahnya minat peneliti di Indonesia karena fasilitas yang kurang memadai serta anggaran yang kurang cukup. Hal ini jadi salah satu faktor utama mengapa peneliti kebanyakan pergi meneliti ke luar negeri,” tutup Iskandar.


Source :

LIPI SBII 2015