FI CSR

CSR SOLUSI247 – Buka Bersama & Santunan 100 Anak Yatim

Ramadhan adalah bulan mulia dimana dosa-dosa diampuni dan pahala dilipatgandakan, salah satunya dengan memberi kepada sesama. Dalam rangka bulan suci Ramadhan ini, sudah menjadi agenda rutin Solusi247 untuk selalu menyempatkan diri berbuka puasa bersama dengan anak-anak yatim yang biasa disebut dengan CSR Solusi247 atau tanggung jawab sosial perusahaan. Kegiatan kali ini diselenggarakan di Pesantren Al-Quran Al-Hidayah Yayasan Hidayatul Islam, Balekambang, Condet, Jakarta Timur, yang diikuti oleh sekitar 100 anak-anak yatim yang dilaksanakan pada hari Rabu, 15 Juni 2016.

CSR (Corporate Social Responsibility) Solusi247 berisi kegiatan siraman rohani oleh Ustad Masyudi, pembacaan ayat-ayat suci Al-Qur'an, santunan 100 anak yatim, buka puasa bersama, shalat maghrib berjama'ah dan diakhiri dengan shalat tarawih berjama'ah. Kegiatan CSR Solusi247 ini tentu saja bertujuan untuk menjalin silaturahmi dan berbagi rezeki kepada sesama umat muslim yang membutuhkan. Kegiatan yang dimulai dari pukul 16.00 WIB berakhir pada pukul 20.30 WIB.

FI INTEL

Braja Appliance di INTEL IoT Conference 2016

Jakarta, Selasa, 14 Juni 2016.

       Solusi247 mengikuti event tahunan yang diselenggarakan oleh INTEL yang bertemakan INTEL IoT SOLUTIONS CONFERENCE 2016. Ini adalah kali ketiga Solusi247 mengikuti event tersebut. Solusi247 diminta untuk mengikuti showcase pada acara tersebut. Showcase yang dipamerkan Solusi247 pada event ini adalah Braja Appliance, Braja Appliance, dimana Braja tersebut menggunakan processor INTEL dalam setiap nodes server-nya.

       Braja Big data Appliance adalah solusi Big Data terpadu yang bertujuan untuk mempermudah dan mempercepat adopsi Big Data dalam suatu organisasi. Hal ini dirancang untuk memenuhi kebutuhan dalam mengolah data yang sangat besar dan kompleks di mana aplikasi pengolah data umum saja tidak cukup. Dengan mengintegrasikan berbagai kerangka kerja Big Data dan komponen ke dalam satu produk. Braja adalah infrastruktur Big Data yang terjangkau dan sangat terukur untuk bisnis Anda.

       Internet of Things (IoT) memacu inovasi di hampir semua segi kehidupan kita. Dengan menghubungkan “benda” yang belum pernah dihubungkan sebelumnya, akan tercipta pengetahuan data baru yang melahirkan perubahan berharga. Namun, ada hambatan yang memperlambat penerapan IoT.

       Antusias peserta sangat besar saat mengunjungi booth dari Solusi247. Hal ini dikarenakan Braja sangat mendukung pengolahan big data dimana teknologi big data diperkirakan akan menjadi fenomenal di tahun 2018 nanti.

       Perwakilan dari Solusi247 dalam event tahunan INTEL ini diantaranya Bpk. S. Arifin, Bagus Rully Muttaqien, dan Sigit Prasetyo. Peserta yang berpartisipasi dalam acara ini tidak lain adalah government serta perusahaan yang bergerak di industri IT.

FI UAI2016

Solusi247 Berpartisipasi Dalam Event IT FEST UAI 2016

Himpunan Mahasiswa Teknik Informasi  Universitas Al Azhar Indonesia (HMIF UAI) mengadakan IT Fest 2016  dengan tema “FUTURE (Fantastic and Unpredictable Technology for Humans Future Life)”. Acara yang diadakan selama empat hari (Senin 25/04/16sampai  Kamis 28/04/16) merupakan wujud kepedulian nyata dari HMIF UAI dalam memberikan wawasan tentang perkembangan informasi Teknologi untuk Manusia di masa akan datang.

uai2

IT FES UAI 2016 diselenggarakan di Universitas Al-Azhar Indonesia, Komplek Masjid Agung Al-Azhar,Jl. Singsing

amangaraja , Kebayoran Baru, Jakarta Selatan. Acara ini berisi acara seminar, workshop, perlombaan dan bazaar yang di buka untuk umum. IT Fest 2016 ini juga mengundang para wirausahwan muda untuk ikut meramaikan stand bazaar yang diadakan di lobby UAI. Solusi247 menjadi salah satu sponsor dalam penyelenggaraan event ini.

uai6

Seminar di IT FEST UAI 2016 yang berlangsung selama 2 hari pada tanggal 27-28 April 2016 tersebut diisi oleh pembicara-pembicara profesional seperti:

(Day 1) Rabu, 27 April 2016
1. Overlocking Team dengan topik “Update Technology“.
2. Arief (Kaspersky Indonesia) dengan topik “PC & Internet Security“.

(Day 2) Kamis, 28 April 2016
3. Beno Kunto Pradekso (CEO of Solusi 247) dengan topik “The Future of Big Data on Cloud Technology“.
4. Yasser Hadiputra (CEO of CISO Magazine) dengan topik “Importance of Information Security in Bussiness“.

uai7

Disamping para pembicara yang berkompeten dibidangnya masing-masing, hadir pula Rektor Bapak Dr. Ir. Ahmad H. Lubis, M.Sc., Wakil Rektor II Bapak Dr. Ir. Ade Jamal, Ka. Program Studi Teknik Informatika UAI Ibu Ir. Winangsari Pradani, MT., Mahasiswa UAI dan para peserta lomba dari SMA & SMK.


Sumber :

IT Fest UAI 1

IT Fest UAI 2

banner15

Challenges For The Biomedical Industry In Terms Of Big Data

Tantangan Industri Biomedis untuk Big Data

Lahirnya Next-Generation Sequencing (NGS) berakibat pada pertumbuhan data genomic secara eksponensial. NGS berhasil memangkas waktu dan biaya yang dibutuhkan untuk melakukan sequencing sebuah genom secara drastis. Biaya sequencing turun secara signifikan dari sekitar US$100M pada tahun 2001 menjadi sekitar US$1000 di tahun 2015. Sebuah studi kasus diagnostik genom http://www.genomemedicine.com/content/7/1/100?utm_source=datafloq&utm_medium=ref&utm_campaign=datafloq pada tahun 2015 menunjukkan bahwa waktu yang diperlukan untuk melakukan whole genome sequencing, analisis dan diagnosis penyakit genetik pada bayi yang sakit berat adalah 26 jam.

8-challenge_04

Apakah perpaduan teknologi antara industri biomedis dan big data akan dapat mendukung perkembangan data genomics di masa datang? Berikut adalah beberapa hambatan dan tantangan yang dihadapi dalam perkembangan pemanfaatan data genomics :

  • Meskipun biaya sequencing dan storage sudah relatif rendah, namun biaya komputasi terutama dari sisi infrastruktur masih relatif tinggi. Cloud computing dapat menjadi solusi terhadap kebutuhan komputasi, namun transfer data genomics yang sangat besar dari mesin sequencing ke cloud dapat menjadi tantangan tersendiri.
  • Privasi data genomics juga menjadi sebuah isu, karena penggunaan dan penyebaran (sharing) data tersebut tidak dapat diprediksi. Meskipun data dikumpulkan secara anonimus, masih ada kemungkinan re-identifikasi sehingga menjadi peluang timbulnya pelanggaran privasi.
  • Interoperabilitas antar database genomics maupun dengan sistem medis lainnya (misalnya Electronic Medical Records atau EMR) menjadi tantangan lain yang harus diatasi agar proyek-proyek kolaborasi semacam 100.000 Genome Project (http://www.genomicsengland.co.uk/the-100000-genomes-project/?utm_source=datafloq&utm_medium=ref&utm_campaign=datafloq) dapat memberikan manfaat yang sebesar-besarnya bagi masyarakat maupun pasien yang membutuhkan.
  • Nilai tambah yang ditawarkan oleh bidang translational genomics kepada industri biomedis mungkin tidak langsung terlihat hasilnya. Biaya yang harus dikeluarkan oleh sebuah organisasi untuk menyimpan dan mengolah data genomics mungkin tidak bisa memberikan keuntungan finansial dalam jangka pendek. Hal ini dapat menyurutkan keinginan untuk berinvestasi di bidang ini. Namun, pengetahuan yang didapat dari proyek-proyek yang bersifat riset dapat memberi manfaat yang sangat besar bagi masyarakat maupun bagi pengembangan produk mereka sendiri. Penyedia solusi big data yang mendukung platform big data di bidang genomics akan dapat memperoleh keuntungan dengan menyediakan jasa penyimpanan, pemrosesan dan analisis data.

Perusahaan seperti AWS, Oracle dan Google menempatkan diri sebagai pemain kunci dalam penyediaan infrastruktur komputasional di bidang biomedis dengan menyediakan infrastruktur bagi penyimpanan dan analisis data genomics. Mereka menyadari potensi nilai yang didapat dari penyediaan platform untuk riset genomics.

Dengan semakin menurunnya biaya sequencing dan dengan dimungkinkannya sequencing dalam skala besar, kita dapat menyaksikan pergeseran dari pengobatan reaksioner (mengobati setelah timbulnya penyakit) menjadi pengobatan prediktif dan proaktif. Database genomics yang besar memungkinkan dilakukannya riset untuk lebih memahami dasar-dasar genetik pada bermacam-macam penyakit.

Pengetahuan ini akan mendorong pengembangan obat-obatan dan terapi yang lebih terarah dan bersifat preventif, dan juga memungkinkan pengembangan alat interpretasi genomics secara individual untuk keperluan konseling bagi individu untuk mencegah kemungkinan munculnya penyakit atau kondisi yang berkaitan dengan kecenderungan genetik.


Source :

Id Big data – Challenger For The Biomedical Industry In Terms Of Big Data

FI cebit 16 after

CeBIT 2016: The Event and 247 Products

Menawarkan acara IT dan program konferensi untuk para profesional, CeBIT mendefinisikan tren TI terkini, menghadirkan topik oleh pembicara berkaliber tinggi dan diskusi panel depan, dan menampilkan inovasi produk dari seluruh dunia.

Cdj6lzbUkAEugPL

Di event yang diselenggarakan mulai tanggal 14 dan berakhir pada tanggal 18 Maret 2016 kemarin, Solusi247 ikut berpartisipasi sebagai exhibitor di Konferensi Teknologi CeBIT 2016 dengan memamerkan produk Braja dan Yava.

Perwakilan yang dikirim ke German untuk mengikuti Konferensi Teknologi CeBIT 2016 dari Solusi247 adalah bpk. Ir. Solechoel Arifin, MSc.EE dan bpk. Ir. Joko Suyono, MSc.EE.

Solusi247 berada dikawasan :

Ministry of Industry of the Republic of Indonesia/Dua Empat Tujuh,
PT/SOLUSI247
Deutsche Messe – Hall 003 B01
Messagelande
30521
Hannover – Germany

CdlQamSUEAAQJjE

CdjJZYOUsAErDo3

CdzQJwUUAAAsL0b

CdlQamVVIAAiEfI


Why Using Braja ?

Braja Big Data Appliance is an integrated Big Data solution aims to facilitate and accelerate Big Data adoption in an organization. It is designed to fulfill the need in processing large and complex data in which common data processing application is insufficient. By integrating a variety of Big Data framework and components into a single product, Braja is the affordable and highly scalable Big Data infrastructure for your business.

  • Reliable

Built on Apache Hadoop, with a simple but powerful architecture designed specifically for data reliability in case of disk, node or network errors and failures. It’s designed to scale up from single server to thousands of machines, each delivering local computation and storage.

  • Integrated Systems

Braja is a complete Hadoop Big Data platform with low total cost of ownership. It combines hardware and the comprehensive Yava Hadoop data platform into a fully intergrated and ready to use system, enables you to focus more on your business, not the technology behind it.

  • Fast Support

With a deep experience and know how in implementation and maintenance big data clusters and data warehouse systems, Braja solution and support ensures the delivery of a smoothly operational and running system with maximum application performance.

Braja Products

Power Level

power level

Velocity Level

velocity level

Pilot Level

pilot level

Source :

Braja 247


Yava

Yava Hadoop is a 100% open source compilation of Big Data platform that use of the power of Apache Hadoop ecosystem and designed to help accelerate the adoption of Hadoop implementation and its ecosystem in Indonesia.

With the support from YARN cluster management, Yava provides a wide range of data access and processing capabilities: batch, streaming, interactive and real time in a single cluster.

YAVA_bagan

Source :

Yava 247


 

FI Caffe on spark

Deep Learning on Caffe-on-Spark

Distributed Deep Learning on Spark (Using Yahoo’s Caffe-on-Spark)

Caffe-on-Spark is a result of Yahoo’s early steps in bringing Apache Hadoop ecosystem and deep learning together on the same heterogeneous (GPU+CPU) cluster that may be open sourced depending on interest from the community.

To enable deep learning on these enhanced Hadoop clusters, we developed a comprehensive distributed solution based upon open source software libraries, Apache Spark and Caffe. One can now submit deep learning jobs onto a (Hadoop YARN) cluster of GPU nodes (using spark-submit).
Source :

Yahoo’s Caffe-on-Spark


To enable deep learning, Yahoo added GPU nodes into their Hadoop clusters with each node having 4 Nvidia Tesla K80 cards, each card with two GK210 GPUs. These nodes have 10x processing power than the traditional commodity CPU nodes they generally use in their Hadoop clusters.

GPU

Yahoo has progressively invested in building and scaling Apache Hadoop clusters with a current footprint of more than 40,000 servers and 600 petabytes of storage spread across 19 clusters.

Hadoop clusters are the preferred platform for large-scale machine learning at Yahoo. Deep learning is used in many of Yahoo’s products, such as Flickr’s Magic View feature which automatically tags all user photos, enabling Flickr end users to organize and find photos easily. Read “Picture This: NVIDIA GPUs Sort Through Tens of Millions of Flickr Photos” for more information on the feature.

To enable deep learning on these enhanced clusters, the Yahoo Big Data and Machine Learning team developed a comprehensive distributed solution based upon open source software libraries, Apache Spark and Caffe. Caffe-on-Spark enables multiple GPUs, and multiple machines to be used for deep learning.

Source :

Caffe on Spark for Deep Learning from Yahoo


Is Apache Spark a Good Framework for Implementating Deep Learning?

It Depends.
Yes, if your objectives are one or more of these:

  1. To quickly implement some aspect of DL using existing/emerging libraries, and you already have a Spark cluster handy. In that case, consider, e.g. guoding83128/OpenDL, Lightning-Fast Deep Learning on Spark, Implementing a Distributed Deep Learning Network over Spark
  2. To experiment with developing different ideas for distributed DL, e.g., variations on Downpour SGD or Parameter Server without having to learn a strange new compute model like CUDA.
  3. To experiment with potentially interesting architectures, e.g., using Spark CPUs to drive GPU coprocessors in a distributed context.
  4. For some situational reasons, your need to horizontally scale your huge dataset is only satisfiable with a Spark cluster and not, e.g., a single-chassis GPU box.
  5. Generally speaking, absolute speed (relative to other available approaches like GPU) is not the main concern.
  6. Etc.


No, if your objectives are one or more of (here the scenarios are biased toward situations that warrant GPU-based implementations):

  1. You want the optimal high performance/programming flexibility sweet spot of GPUs and can learn/already know CUDA / Caffe | Deep Learning Framework
  2. You don’t have a particular affinity for Spark/Java/Scala/Python and prefer to invest your time/effort in what is becoming the current dominant architectures for DL implementations (GPU/CUDA).
  3. You want to push the envelope even further (perhaps for not very good today-relevant reasons ) and go to FGPAs/ASICs and are willing to give up the flexibility of CPUs/GPUs.
  4. You want to work on leading-edge R&D and produce amazing refereed-journal results (e.g., “4 GPU DNN Beats Google’s 14,000-Machine Brain At Recognizing Cats and Jennifer Aniston”) on the most energy/cost efficient platforms today.
  5. Etc.

Source :

Apache Spark for Implementating Deep Learning


FI Phoenix 2

Apache Phoenix

Apache Phoenix is an open source, massively parallel, relational database layer on top of noSQL stores such as Apache HBase. Phoenix provides a JDBC driver that hides the intricacies of the noSQL store enabling users to create, delete, and alter SQL tables, views, indexes, and sequences; upsert and delete rows singly and in bulk; and query data through SQL. Phoenix compiles queries and other statements into native noSQL store APIs rather than using MapReduce enabling the building of low latency applications on top of noSQL stores.

Phoenix began as an internal project by the company salesforce.com out of a need to support a higher level, well understood, SQL language. It was originally open-sourced on GitHub and became a top-level Apache project on 22 May 2014. Apache Phoenix is included in the Hortonworks distribution for HDP 2.1 and above, is available as part of Cloudera labs, and is part of the Hadoop ecosystem.

Source :

Apache Phoenix


Apache Phoenix enables OLTP and operational analytics in Hadoop for low latency applications by combining the best of both worlds:

  • the power of standard SQL and JDBC APIs with full ACID transaction capabilities and
  • the flexibility of late-bound, schema-on-read capabilities from the NoSQL world by leveraging HBase as its backing store

Apache Phoenix is fully integrated with other Hadoop products such as Spark, Hive, Pig, Flume, and Map Reduce.

Who is using Apache Phoenix ?

who using phoenix

Apache Phoenix takes your SQL query, compiles it into a series of HBase scans, and orchestrates the running of those scans to produce regular JDBC result sets. Direct use of the HBase API, along with coprocessors and custom filters, results in performance on the order of milliseconds for small queries, or seconds for tens of millions of rows.

Apache Phoenix supports table creation and versioned incremental alterations through DDL commands. The table metadata is stored in an HBase table and versioned, such that snapshot queries over prior versions will automatically use the correct schema.

Source :

Apache Phoenix Official


Untitled-8

Geospatial Dengan SOLR

Secara umum Solr dipergunakan untuk media penyimpanan peta yang biasanya di support oleh database seperti Oracle dan PostgreSQL. Data peta/map disimpan dalam format WKT supaya bisa di index dan di query oleh Apache Solr. Untuk visualisasi data peta/map nya menggunakan software open source juga yaitu GeoServer dimana sudah mensupport Solr sebagai data store ( Solr plugin ). Selain itu Solr juga mensupport spatial search seperti radius, distance dan filter search.


Penjelasan mudahnya, Solr ini adalah sebuah aplikasi mesin pencari seperti Google yang ditulis menggunakan bahasa pemrograman Java. Dan berikut ini adalah penjelasan yang lebih lengkap diambil dari web resmi Apache SOLR:

SolrTM is the popular, blazing fast open source enterprise search platform from the Apache LuceneTM project. Its major features include powerful full-text search, hit highlighting, faceted search, near real-time indexing, dynamic clustering, database integration, rich document (e.g., Word, PDF) handling, and geospatial search. Solr is highly reliable, scalable and fault tolerant, providing distributed indexing, replication and load-balanced querying, automated failover and recovery, centralized configuration and more. Solr powers the search and navigation features of many of the world’s largest internet sites. Solr is written in Java and runs as a standalone full-text search server within a servlet container such as Tomcat. Solr uses the Lucene Java search library at its core for full-text indexing and search, and has REST-like HTTP/XML and JSON APIs that make it easy to use from virtually any programming language. Solr’s powerful external configuration allows it to be tailored to almost any type of application without Java coding, and it has an extensive plugin architecture when more advanced customization is required.

Solr mendukung data lokasi untuk digunakan dalam ruang / pencarian geospasial. Dengan menggunakan pencarian spasial, Anda bisa melakukan :

  • Index points or other shapes
  • Filter search results by a bounding box or circle or by other shapes
  • Sort or boost scoring by distance between points, or relative area between rectangles
  • Generate a 2D grid of facet count numbers for heatmap generation or point-plotting.

Source :

SOLR Data Store

Spatial Search

 

FI Cebit 16 2edit

Solusi 247 Wakili Indonesia di Konferensi Teknologi CeBIT 2016

CeBIT 2016 akan dilaksanakan di Hannover, Germany pada tanggal 14-18 Maret mendatang. Akan ada beberapa perusahaan IT ternama di Indonesia yang ikut serta dalam Konferensi CeBIT 2016 nanti termasuk Solusi 247. Solusi247 akan ada di kawasan Ministry of Industry of the Republic of Indonesia/Dua Empat Tujuh, PT/SOLUSI247, Deutsche Messe – Hall 003 B01, Messagelande 30521, Hannover – Germany.

Selain Solusi 247, akan ada beberapa perusahaan IT yang lainnya seperti Delapan Sebelas Indonesia, Dreambender Indonesia, Agate Studios, Amirage.J.SPOT, Anantarupa Studio, Data Driven Asia, dll.

CeBIT sendiri merupakan acara global tahunan yang menjadi barometer tren teknologi dunia terkini yang biasa diselenggarakan di Hannover, Jerman. Diperkirakan akan ada sekitar lebih dari 3.300 peserta pameran dari 70 negara yang akan menampilkan berbagai jenis aplikasi digital hasil penelitian dan pengembangan hingga produk-produk yang siap untuk dilepas ke pasaran di bidang augmented reality, big data, business intelligence, business process, e-learning, gamification, Internet of Things di sektor kesehatan, secure system, telekomunikasi, dan lain-lain.

Melalui Paviliun Nasional Indonesia yang merupakan konsultan acara internasional, acara ini didukung penuh oleh Kementerian Perindustrian RI, Kedutaan Besar RI Berlin, Konsulat Jenderal RI Hamburg dan Indonesian Trade Promotion Center/ITPC Hamburg. Para perusahaan IT ternama di Indonesia ini akan menampilkan berbagai produk terkininya dengan harapan mendapatkan exposure global dan pengaruh yang lebih luas terhadap bisnisnya.

banner13

Apache Arrow – In-Memory Columnar Data Layer

Pada tanggal 17 Februari 2016 lalu, Apache Software Foundation mengumumkan Apache Arrow sebagai top-level project tanpa melalui masa inkubasi yang panjang. Apache Arrow semula merupakan pengembangan dari Apache Drill, dibangun atas kolaborasi beberapa project open source unggulan lainnya dan bertujuan untuk menjadi standar de-facto bagi pemrosesan data in-memory yang tersusun secara columnar. Proyek-proyek Big Data yang telah bergabung dalam pengembangan Apache Arrow adalah Calcite, Cassandra, Drill, Hadoop, HBase, Impala, Kudu (incubating), Parquet, Phoenix, Spark, Storm, Pandas dan Ibis.

Apache Arrow bukan merupakan sebuah engine ataupun sistem penyimpanan. Ia adalah sebuah format dan algoritma untuk bekerja secara hirarkis, in-memory dan columnar serta mendukung sejumlah bahasa pemrograman yang dapat bekerja diatasnya.

“Data dalam memori yang tersusun secara columnar memungkinkan sistem dan aplikasi memproses data pada kecepatan maksimum dari hardware” ujar Todd Lipcon, pendiri Apache Kudu dan anggota komite manajemen Apache Arrow Project.

Pada banyak proses pengolahan data, 70-80% siklus CPU dihabiskan untuk proses serialisasi dan deserialisasi data antar proses. Arrow mengatasi masalah ini dengan memungkinkan adanya sharing data antar sistem dan proses tanpa melalui proses serialisasi, deserialisasi atau penggandaan memory. Penggunaan Apache Arrow diklaim mampu mempercepat proses hingga 100 kali.

Arrow juga telah mendukung data yang kompleks dengan skema dinamis. Contohnya, Arrow mampu menangani data JSON yang umumnya digunakan pada proses IoT, aplikasi modern dan log file. Implementasinya juga sedang dikembangkan untuk beberapa bahasa pemrograman termasuk java, c++ dan python untuk memungkinkan interoperabilitas solusi big data yg lebih besar. Software apache arrow sudah rilis dengan menggunakan lisensi Apache v2.0 dan untuk mengunduh software, dokumentasi dan cara bergabung dengan Apache Arrow project silahkan mengunjungi http://arrow.apache.org/


Sumber :

Id Big Data