🔍ไขข้อสงสัยเรื่อง Big Data! กับ 10 คำถามยอดฮิตที่มักถูกถามเมื่อพูดถึง Big Data พร้อมคำตอบจากประสบการณ์ตรงของ Blendata ที่จะทำให้เข้าใจโลกของข้อมูลขนาดใหญ่และ AI มากขึ้น💡

🔸1. Big Data มีแหล่งข้อมูล (Data Sources) มาจากที่ไดบ้าง?

Big Data คือข้อมูลขนาดใหญ่ที่ประกอบไปด้วยคุณสมบัติหลัก ๆ 3 ข้อ ได้แก่ Volume (ปริมาณ) Variety (ความหลากหลาย) และ Velocity (ความเร็ว) โดยถูกสร้างขึ้นมาจากหลากหลายต้นทาง สามารถแบ่งออกเป็น 3 แหล่งที่มา ได้แก่

  1. Enterprise Software ประกอบไปด้วย ERP (Enterprise Resources Planning), SCM (Supply Chain Management), และ CRM (Customer Relationship Management)
  2. In-house Website/Application ประกอบไปด้วยข้อมูลจากแอปพลิเคชันต่าง ๆ บนมือถือและข้อมูลที่รวบรวมได้จากเว็บไซต์ ซึ่งสามารถเรียกข้อมูลเหล่านี้ว่า In-house Website/Application Data
  3. External Sources ประกอบไปด้วย Social Data หรือการฟังเสียงจากโซเชียลมีเดียต่าง ๆ ของผู้บริโภค ข้อมูลจาก Partner และ Other Third-Party Data

อ่านบทความเพิ่มเติมเกี่ยวกับ Data Sources ได้ที่

ทำความรู้จักกับแหล่งที่มาของข้อมูล หรือ ‘Data Sources’ ในโลกธุรกิจ 

🔸2. เทคโนโลยี Data Lake แตกต่างจาก Data Warehouse อย่างไร?

เทคโนโลยี Data Lake และ Data Warehouse เป็นสองแนวคิดที่สร้างขึ้นเพื่อการจัดการข้อมูลขนาดใหญ่ ในขณะเดียวกันก็มีลักษณะและการใช้งานที่แตกต่างกัน ดังนี้

ลักษณะของข้อมูลที่จัดการ:

Data Lake: เกิดขึึ้นเพื่อมาจัดการข้อมูลในยุคดิจิทัลปริมาณมหาศาล (Volume) มีความหลากหลายด้านโครงสร้างและชนิดของข้อมูล (Variety) รวมถึงข้อมูลในปัจจุบันถูกสร้างขึ้นอย่างรวดเร็วและมีการเปลี่ยนแปลงตลอดเวลา (Velocity) หรือที่เรียกกันว่า Big Data เช่น ข้อมูลจากโซเชียลมีเดีย ข้อมูลเซ็นเซอร์ ข้อมูลที่เกิดขึ้นในรูปแบบ Text หรือข้อมูลภาพและวิดีโอ ที่นอกเหนือไปจากข้อมูลแบบมีโครงสร้าง (Structured Data) อาทิเช่นข้อมูลในฐานข้อมูลแบบดั้งเดิม 

Data Warehouse: จัดการข้อมูลที่มีโครงสร้าง (Structured Data) เป็นหลัก ซึ่งมักจะถูกทำการจัดระเบียบมาเรียบร้อยแล้ว (โปรเซสการจัดการข้อมูลนี้เรียกกันว่า ETL) เพื่อใช้ในการวิเคราะห์และการจัดทำรายงาน ซึ่งมักเป็นข้อมูลที่มาจากแหล่งต่าง ๆ ในองค์กร เช่น ระบบฐานข้อมูลการทำธุรกรรม ERP หรือระบบ CRM (Customer Relationship Management) เป็นต้น

ข้อดีและข้อเสีย:

Data Lake: สามารถจัดการข้อมูลขนาดใหญ่ในทุกรูปแบบได้อย่างมีประสิทธิภาพ รองรับการประมวลผลได้อย่างรวดเร็วเมื่อเทียบ Price/Performance รองรับเครื่องมือวิเคราะห์ข้อมูลสมัยใหม่ โดยเฉพาะเครื่องมือด้าน Advanced Analytics และ AI ที่จะมาเชื่อมต่อและใช้งานร่วมด้วย หากแต่ยังมีข้อจำกัดในบางเรื่องที่ Data Warehouse เคยทำได้ แต่ Data Lake ไม่สามารถทำได้ เช่นความสามารถในการ Update ข้อมูล ความสามารถในการรองรับ High Concurrent Workloads (การดึงข้อมูลพร้อมกันในปริมาณ Transaction ที่มาก) เป็นต้น

Data Warehouse: สามารถจัดการข้อมูลในรูปแบบมีโครงสร้างได้อย่างมีประสิทธิภาพมายาวนาน รองรับการประมวลผลด้านการทำ Report อาทิเช่นงาน OLAP (Online Analytical Processing)หรือเชื่อมกับระบบ BI (Business Intelligence) ได้เป็นอย่างดี หากแต่มีข้อจำกัดในเรื่องการรองรับข้อมูล Big Data การรองรับการเชื่อมต่อและประยุกต์ใช้กับการวิเคราะห์ข้อมูลสมัยใหม่ โดยเฉพาะเครื่องมือด้าน Advanced Analytics และ AI รวมถึงต้นทุนด้านค่าใช้จ่ายที่สูงหากเปรียบเทียบกับเครื่องมือสมัยใหม่

ภายหลัง จึงได้เกิดเทคโนโลยีอย่าง Data Lakehouse ซึ่งพยายามควบรวมข้อดีของทั้งสองเทคโนโลยีเข้าด้วยกัน โดยมีรากฐานจากเทคโนโลยีฝั่ง Data Lake หรือ Big Data ซึ่ง Blendata Enterprise เองอยู่ในหมวดหมู่นี้

ตัวอย่างของเทคโนโลยี:

Data Lake: มักใช้ระบบการเก็บข้อมูลที่มีประสิทธิภาพสำหรับข้อมูลขนาดใหญ่ควบคู่ไปกับหน่วยประมวลผลแบบคู่ขนานเฉพาะด้าน ตัวอย่างเทคโนโลยีการเก็บข้อมูล เช่น Hadoop Distributed File System (HDFS), Scale-out NAS appliance, หรือ Software Defined Storage หรือระบบเก็บข้อมูลแบบคลาวด์ เช่น Amazon S3, Google Cloud Storage  และตัวอย่างเทคโนโลยีประมวลผลเช่น Apache Hive, Impala, Presto สำหรับการประมวลผลข้อมูลแบบ Batch.  Apache Flink, Storm สำหรับการประมวลผลข้อมูลแบบ Real-time หรือจะเป็นเทคโนโลยีที่ประมวลผลได้ทั้งสองรูปแบบอย่าง Apache Spark ซึ่งเป็นรากฐานเทคโนโลยีของ Blendata Enterprise

Data Warehouse: มักเป็นเทคโนโลยีฐานข้อมูลที่ข้อมูลทั่วไปจะถูกเก็บในระบบฐานข้อมูล SQL แบบมีโครงสร้าง เช่น MySQL, PostgreSQL หรือสำหรับ Data Warehouse สำหรับข้อมูลขนาดใหญ่และการประมวลผลที่ซับซ้อนเพิ่มขึ้น เช่น Teradata, Oracle Exadata, IBM Netteza, Gleenplum เป็นต้น

🔸3. เมื่อไหร่ที่องค์กรควรเริ่มทำโครงการ Big Data?

องค์กรควรเริ่มทำโครงการ Big Data เมื่อมีความต้องการและความพร้อมที่เหมาะสม ซึ่งประกอบไปด้วยปัจจัยหลัก ดังนี้

มีความต้องการในการวิเคราะห์ข้อมูลที่ต้องใช้ข้อมูลขนาดใหญ่ หากองค์กรมีความต้องการในการวิเคราะห์ข้อมูลที่ต้องใช้ข้อมูลขนาดใหญ่ เช่น การวิเคราะห์แนวโน้มทางธุรกิจ การคาดการณ์ความต้องการของตลาด หรือการวิเคราะห์พฤติกรรมของลูกค้ารายบุคคล โครงการ Big Data จะช่วยให้องค์กรมีข้อมูลที่จำเป็นในการตัดสินใจอย่างมีประสิทธิภาพมากยิ่งขึ้น

เครื่องมือประมวลผลและวิเคราะห์เดิมประมวลผลช้า/ไม่สามารถประมวลผลได้ หากองค์กรพบว่าระบบการประมวลผลเดิมที่มีประมวลผลได้ช้า กว่าจะได้ข้อมูลต้องรอนาน ทำให้ไม่มีประสิทธิภาพในการดำเนินธุรกิจหรือไม่สามารถเพิ่มเติมการวิเคราะห์ข้อมูลแบบอื่นได้ การทำโครงการ Big Data เพื่อนำเอาเทคโนโลยีใหม่ๆ มาใช้ จะเข้ามาช่วยตอบโจทย์เรื่องความไวในการประมวลผลได้อย่างมีนัยยะสำคัญ

ข้อมูลมีคุณภาพและปริมาณเพียงพอในการนำไปวิเคราะห์ต่อยอด การเริ่มโครงการ Big Data ควรพิจารณาคุณภาพและปริมาณของข้อมูลที่มีอยู่ โดยควรมีปริมาณข้อมูลและมีคุณภาพมากเพียงพอที่จะนำไปวิเคราะห์เพื่อสร้างความเข้าใจและสร้างค่าเพิ่มให้กับธุรกิจได้

จะทำ/มีแนวโน้มจัดทำโครงการ AI ในอนาคต รากฐานของ AI ที่ดีคือข้อมูลที่มีคุณภาพ การจัดทำโครงการ Big Data จึงเป็นรากฐานที่สำคัญต่อการประยุกต์ใช้ AI ขององค์กรในอนาคต โดยการรวบรวมข้อมูลที่เกี่ยวข้องทั้งหมดมาไว้ในที่เดียวกัน และใช้เทคโนโลยีฐานที่เหมาะสม จะทำให้การจัดทำ AI นั้นมีต้นทุนที่ถูกลง และมีประสิทธิภาพเพิ่มมากขึ้นอย่างมีนัยยะสำคัญ

อย่างไรก็ตามองค์กรควรพิจารณาอย่างรอบคอบ โดยการทำความเข้าใจความต้องการและความพร้อมขององค์กร และการสร้างแผนการดำเนินงานที่เหมาะสม เพื่อให้มั่นใจว่าการลงทุนในโครงการจะมีผลตอบแทนที่คุ้มค่าและมีประสิทธิภาพที่สุดในระยะยาว

🔸4. Big Data เกี่ยวข้องอย่างไรกับ AI หากต้องการทำโครงการ AI จำเป็นต้องมี Big Data หรือไม่?

เทคโนโลยีปัญญาประดิษฐ์ หรือ AI (Artificial Intelligence) คือหนึ่งในเทคโนโลยีที่ถูกให้ความสำคัญเป็นอย่างมาก ในอนาคตอันใกล้เทคโนโลยี AI จะถูกนำไปปรับใช้ในทุกอุตสาหกรรมและทุกการดำเนินงานขององค์กร แต่การที่องค์กรจะใช้ AI ได้เต็มศักยภาพและไม่เกิดข้อผิดพลาดนั้น จะต้องอาศัยปัจจัยหลักทั้ง 2 ด้าน คือ ข้อมูลและบุคลากรผู้เชี่ยวชาญ จึงจะสามารถขับเคลื่อนเทคโนโลยี AI ให้เกิดผลลัพธ์ได้ดีที่สุด ซึ่งปัจจัยสำคัญที่ควรคำนึงถึงก่อนลงทุนใช้ระบบ AI คือ การบริหารจัดการข้อมูล หรือ Data Management ให้มีประสิทธิภาพ ดังนั้น Big Data จึงเปรียบเสมือนเชื้อเพลิงที่สำคัญของ AI การจะสร้าง AI ให้มีมันสมองอันชาญฉลาด จำเป็นอย่างยิ่งที่จะต้องมีการจัดเก็บรวบรวม Big Data ที่มีคุณภาพ หากองค์กรจะเริ่มใช้ AI ในการเพิ่มศักยภาพทางธุรกิจต้องเริ่มจากการวางโครงสร้างการจัดการข้อมูลและระบบไอทีให้ดีก่อนโดยการตรวจสอบข้อมูลที่มีว่ามีคุณภาพและพร้อมใช้งานหรือไม่ หากบริหารจัดการข้อมูลไม่มีประสิทธิภาพ ก็จะส่งผลให้  AI ดึงข้อมูลที่ไม่ได้คุณภาพ ไม่ถูกต้อง หรือไม่สมบูรณ์มาใช้งาน ซึ่งจะส่งผลให้ผลลัพธ์ที่ได้จากการประมวลผลมีการคลาดเคลื่อนและไม่ก่อให้เกิดประโยชน์ทางธุรกิจ ดังนั้นองค์กรจึงต้องดำเนินการบริหารจัดการข้อมูลให้พร้อม เพื่อให้ได้มาซึ่งผลลัพธ์ทางธุรกิจที่คุ้มค่า จากการใช้เทคโนโลยี AI ที่ทรงพลังและชาญฉลาด

🔸5. ความท้าทายและความยากในการทำ Big Data มีอะไรบ้าง?

บริษัทจำนวนมากในประเทศไทยให้ความสำคัญและต้องการที่จะนำ Big Data มาใช้ แต่ยังคงเผชิญกับปัญหาด้านการบริหารจัดการ Big Data เพื่อให้สามารถนำไปใช้ให้เกิดประสิทธิภาพสูงสุดและคุ้มค่าต่อการลงทุน นับเป็นความท้าทายของภาคธุรกิจที่ต้องพัฒนาขีดความสามารถในการบริหารจัดการ Big Data ให้มีความรวดเร็ว แม่นยำ และมีประสิทธิภาพสูง โดยพบ 4 ความท้าทาย ด้านการบริหารจัดการ Big Data ที่องค์กรไทยกำลังเผชิญดังนี้

  1. รู้ว่า Big Data มีประโยชน์และควรเร่งทำ แต่ยังไม่มีแนวทางในการเริ่มต้น
  2. ปัญหาด้านความซับซ้อนของโครงสร้างพื้นฐานและความไม่พร้อมของข้อมูล
  3. ปัญหาด้านการควบคุมค่าใช้จ่ายจากปริมาณข้อมูลที่เติบโตขึ้น
  4. ปัญหาด้านวัฒนธรรมองค์กรและบุคลากร

อ่านบทความเพิ่มเติมเกี่ยวกับ ความท้าทายบริหารจัดการ Big Data ของธุรกิจไทย และแนวทางก้าวพ้นอุปสรรค ได้ที่ เปิด 4 ความท้าทายบริหารจัดการ Big Data ของธุรกิจไทย แนะแนวทางก้าวพ้นอุปสรรค เพิ่มศักยภาพการแข่งขัน

🔸6. การวางแผนเพื่อเริ่มต้นทำโครงการ Big Data ให้ประสบความสำเร็จมีขั้นตอนอะไรบ้าง?

Blendata แนะนำ 7 กลยุทธ์แนวทางปฏิบัติที่ดีที่สุดในการนำ Big Data และ AI มาปรับใช้กับองค์กร จากประสบการณ์ทำงานร่วมกับองค์กรในหลากหลายอุตสาหกรรมของ Blendata โดยมีกระบวนการขั้นตอนดังนี้

  1. กำหนดวัตถุประสงค์ทางธุรกิจให้ชัดเจน
  2. ประเมินแหล่งข้อมูลและกำหนดกลยุทธ์
  3. มุ่งเน้นไปที่เป้าหมายที่คาดว่าจะทำสำเร็จได้เร็วที่สุด (Quick Win)
  4. สร้างทีมที่เชี่ยวชาญด้านข้อมูล
  5. สร้างโครงสร้างพื้นฐานด้านข้อมูลที่แข็งแกร่ง
  6. ส่งเสริมวัฒนธรรมการตัดสินใจที่ขับเคลื่อนด้วยข้อมูล
  7. กำหนดกฏระเบียบและจัดการกับจริยธรรมทางข้อมูลและความเป็นส่วนตัวของข้อมูลอย่างเคร่งครัด

อ่านบทความเพิ่มเติมเกี่ยวกับการวางแผนเพื่อเริ่มต้นทำโครงการ Big Data ได้ที่

7 กลยุทธ์ปรับใช้ Big Data และ AI สร้างธุรกิจแข็งแกร่ง

🔸7. ทีมงานที่เกี่ยวข้องกับการทำโครงการ Big Data ประกอบไปด้วยฝ่ายใดบ้าง?

การทำโครงการ Big Data เป็นโครงการที่มีความซับซ้อนและมีผลกระทบในหลายด้านต่อธุรกิจ ดังนั้นจึงมีความจำเป็นต้องรวมความสามารถของทีมงานหลายฝ่าย ไม่ว่าจะเป็น

ผู้บริหารและผู้จัดการสูงสุด (Top Management) ผู้บริหารและผู้จัดการสูงสุดมีบทบาทสำคัญในการตัดสินใจและกำหนดนโยบายเกี่ยวกับการทำโครงการ Big Data ซึ่งรวมถึงการกำหนดวัตถุประสงค์ของโครงการ การรับรู้ความเสี่ยงและการลงทุนที่เกี่ยวข้อง

ทีมงานด้านข้อมูล (Data Team) ซึ่งมีความเชี่ยวชาญและหน้าที่ที่แตกต่างกัน ดังนี้

  • Data Engineer (นักวิศวกรข้อมูล): มีหน้าที่ในการออกแบบ สร้าง และดูแลพื้นฐานข้อมูล รวมถึงการจัดการกับข้อมูลในระบบ Big Data โดยใช้เครื่องมือและเทคโนโลยีที่เหมาะสม เช่น Spark หรือ Kafka นอกจากนี้ยังมีหน้าที่ในการจัดการปัญหาเกี่ยวกับการขนส่งและการเรียกใช้ข้อมูลอีกด้วย
  • Data Analyst (นักวิเคราะห์ข้อมูล): มีหน้าที่ในการนำข้อมูลมาวิเคราะห์ เพื่อให้เกิดความเข้าใจเกี่ยวกับแนวโน้ม ความสัมพันธ์ และข้อสังเกตที่มีความน่าสนใจสำหรับธุรกิจ โดยใช้เครื่องมือวิเคราะห์ข้อมูลที่เหมาะสม เช่น SQL, Python, R, และ Excel
  • Data Scientist (นักวิทยาศาสตร์ข้อมูล): มีหน้าที่ในการวิเคราะห์ข้อมูลเชิงลึก เพื่อค้นคว้าแนวโน้ม และความสัมพันธ์ที่ซับซ้อนระหว่างข้อมูล มีความเชี่ยวชาญในการใช้เทคโนโลยีและเครื่องมือวิเคราะห์ข้อมูลขั้นสูง เช่น Machine Learning, Deep Learning, Natural Language Processing (NLP) เพื่อสร้างโมเดลที่ทำนายหรือตอบสนองต่อคำถามทางธุรกิจ

ทีมงานด้านข้อมูลมีหน้าที่สำคัญในการเก็บข้อมูล วิเคราะห์ข้อมูล และสร้างรายงานเพื่อให้ข้อมูลสำหรับการตัดสินใจทางธุรกิจ โดยมีความเชี่ยวชาญในการใช้เครื่องมือวิเคราะห์ข้อมูลและเทคโนโลยีที่เกี่ยวข้อง เพื่อให้สามารถสร้างความเข้าใจและนำข้อมูลไปสู่การตัดสินใจที่สอดคล้องกับวัตถุประสงค์ของธุรกิจได้อย่างมีประสิทธิภาพ

ทีมงานด้านเทคโนโลยีสารสนเทศ (IT Team) มีหน้าที่ในการจัดการพื้นฐานที่เกี่ยวข้องกับการจัดเก็บข้อมูล การประมวลผลข้อมูล และการรักษาความปลอดภัยของข้อมูล และมีบทบาทสำคัญในการเลือกและปรับใช้เทคโนโลยีที่เหมาะสมสำหรับโครงการ Big Data

ทีมงานด้านผู้ใช้งาน/ผู้เกี่ยวข้องโดยตรงกับโครงการ (User/Stakeholder Team) มีหน้าที่ในการกำหนดความต้องการ ความรู้เชิงลึกในแต่ละด้าน เพื่อให้โครงการดำเนินไปอย่างมีประสิทธิภาพ เช่น ทีมการตลาดสำหรับโครงการ Personalized Campaign Recommendation ด้วย Big Data และ AI เป็นต้น

ทีมงานด้านกฎหมายและความปลอดภัย (Legal and Security Team) มีหน้าที่ในการตรวจสอบและปรับปรุงนโยบายความปลอดภัยข้อมูล เพื่อให้ข้อมูลของลูกค้าและข้อมูลที่เชื่อถือได้อยู่ในการจัดการอย่างเหมาะสมและปลอดภัย

การทำโครงการ Big Data เป็นโครงการที่ต้องอาศัยการทำงานร่วมกันของหลายทีม เพื่อให้โครงการมีความสำเร็จและสามารถนำไปสู่ผลลัพธ์ที่เป็นประโยชน์สูงสุดได้อย่างเต็มที่ ดังนั้นหากองค์กรต้องการทำโครงการ Big Data ให้ประสบความสำเร็จ จึงควรสร้างวัฒนธรรมองค์กรที่ตระหนักถึงการใช้ข้อมูลในการทำงาน รวมถึงพัฒนาศักยภาพบุคลากรที่เชี่ยวชาญอย่างครบถ้วน หรืออาจใช้บริการจากบริษัทภายนอกเข้ามาช่วยเหลือในส่วนที่องค์กรต้องการก็ได้เช่นเดียวกัน

🔸8. นโยบายใดบ้างที่ต้องคำนึงถึงหากองค์กรมีการทำโครงการ Big Data?

สิ่งที่องค์กรต้องคำนวณถึงด้านจริยธรรมการใช้ข้อมูล ได้แก่ Data Privacy และ Security ต่าง ๆ ความโปร่งใสของข้อมูล รวมไปถึงความเป็นธรรมในขั้นตอนวิธีการและกระบวนการตัดสินใจ เพื่อไม่ให้เกิดความอคติต่อการวิเคราะห์ข้อมูล และปฏิบัติตามกฎหมายและระเบียบที่เกี่ยวข้องอย่างเคร่งครัด เช่น  PDPA, GDPR และ CCPA เป็นต้น

🔸9. ตัวอย่างกรณีการใช้งาน (Use Cases) ที่องค์กรสามารถประยุกต์ให้เกิดประโยชน์ต่อธุรกิจยุคดิจิทัลมีอะไรบ้าง?

Big Data เทคโนโลยีสำคัญที่ส่งผลต่อการผลักดันองค์กรให้ก้าวสู่การเป็น Data Driven Organization โดยสร้างผลเชิงบวกหลายด้าน รวมถึงเป็นเครื่องมือที่มีประสิทธิภาพในการตอบสนองต่อความต้องการและความเปลี่ยนแปลงในตลาดได้อย่างมีประสิทธิภาพ ช่วยเพิ่มความแข็งแกร่งและความสามารถในการแข่งขันของธุรกิจในยุคดิจิทัลให้มากยิ่งขึ้น โดยมีตัวอย่างกรณีการใช้งาน (Use Cases) ที่น่าสนใจ ดังนี้

การวิเคราะห์ลูกค้า (Customer Analytics) การใช้ข้อมูลที่เกี่ยวข้องกับพฤติกรรมของลูกค้า เช่น ข้อมูลการใช้งานทางอินเทอร์เน็ต ข้อมูลการซื้อสินค้า และข้อมูลจากสื่อสังคมออนไลน์ เพื่อวิเคราะห์พฤติกรรมการซื้อของลูกค้า ช่วยให้ธุรกิจสามารถปรับการตลาดและกลยุทธ์การขายให้เหมาะสมกับความต้องการของลูกค้าได้มากยิ่งขึ้น

การวิเคราะห์และการทำนาย (Predictive Analytics) การใช้ข้อมูลประวัติย้อนหลังและข้อมูลที่เกี่ยวข้องเพื่อทำนายเหตุการณ์ในอนาคต เช่น การทำนายยอดขาย การทำนายความนิยมของสินค้า หรือการทำนายการร้องเรียนจากลูกค้า ช่วยให้สามารถวางแผนต่อยอดเหตุการณ์เชิงบวกหรือรับมือเหตุการณ์เชิงลบที่อาจจะเกิดขึ้นในอนาคตได้อย่างทันท่วงที

การปรับปรุงกระบวนการทางธุรกิจ (Business Process Improvement) การใช้ Big Data เพื่อวิเคราะห์กระบวนการทำงานของธุรกิจ เพื่อหาข้อบกพร่องที่ควรปรับปรุงและเพิ่มประสิทธิภาพ เช่น การลดความล่าช้าในการขนส่งผลิตภัณฑ์ หรือการจัดการคลังสินค้าให้มีประสิทธิภาพโดยใช้ข้อมูลการขาย เพื่อให้ลูกค้าได้รับสินค้าตามความต้องการอย่างต่อเนื่อง

การวิเคราะห์และการจัดการความเสี่ยง (Risk Analysis and Management) เป็นการใช้ข้อมูลที่มาจากแหล่งต่าง ๆ เช่น ข้อมูลการซื้อ ข้อมูลการใช้บริการ ข้อมูลทางการเงิน ข้อมูลสื่อสังคมออนไลน์ และอื่น ๆ เพื่อวิเคราะห์และจัดการความเสี่ยงที่อาจเกิดขึ้นกับธุรกิจ ช่วยให้ธุรกิจสามารถตรวจสอบและปรับปรุงกลยุทธ์การจัดการความเสี่ยงได้อย่างมีประสิทธิภาพและทันต่อสถานการณ์ที่เปลี่ยนแปลงรวดเร็ว โดยลดความเสี่ยงในการดำเนินธุรกิจและเพิ่มประสิทธิภาพในการตัดสินใจให้ดียิ่งขึ้น

การปรับแต่งสินค้าและบริการ (Product and Service Customization) การใช้ข้อมูลที่เกี่ยวข้องกับลูกค้าเพื่อปรับแต่งสินค้าและบริการให้เหมาะสมกับความต้องการและความสนใจของกลุ่มลูกค้าแต่ละราย เช่น การใช้ข้อมูลการทำธุรกรรมก่อนหน้าของลูกค้า เพื่อใช้ข้อมูลในการตัดสินใจในการแนะนำสินค้าและบริการในอนาคต (Next Best Offer) ช่วยให้ธุรกิจสามารถเพิ่มยอดขายและสร้างประสบการณ์ที่ดีต่อลูกค้าได้มากยิ่งขึ้น

การพัฒนาผลิตภัณฑ์ใหม่ (New Product Development) การใช้ Big Data เพื่อวิเคราะห์และทำความเข้าใจเกี่ยวกับความต้องการของตลาด ช่วยให้ธุรกิจสามารถพัฒนาผลิตภัณฑ์ใหม่หรือปรับปรุงผลิตภัณฑ์ที่มีอยู่ให้ตอบสนองกับความต้องการของลูกค้าได้ดียิ่งขึ้น

🔸10. เทรนด์การใช้ Big Data ในอนาคตเป็นอย่างไร?

ด้วยปัจจัยหนุนทางด้านความต้องการการประยุกต์ใช้ AI ที่มีจากความสามารถและความง่ายต่อการเข้าถึง AI ที่มากขึ้น รวมถึงปัจจัยด้านการแข่งขันทางธุรกิจที่เพิ่มสูงขึ้น เราจึงคาดการณ์การใช้ Big Data ในอนาคตไว้ว่าจะเพิ่มขึ้นต่อเนื่องอย่างมีนัยสำคัญ อาทิเช่น

การเก็บ Big data เพื่อตอบสนองต่อการประยุกต์ใช้ปัญญาประดิษฐ์ (AI)

เพราะวัตถุดิบที่สำคัญของ AI คือข้อมูลที่มีคุณภาพ ซึ่งคำว่าคุณภาพนั้นประกอบไปด้วยสองส่วนหลักคือ 1. ข้อมูลมีความถูกต้อง ไม่มีขยะในข้อมูล และ 2. ข้อมูลมีปริมาณมากพอที่จะบ่งบอกถึงลักษณะ (Pattern) ของข้อมูลนั้นๆ ได้ มีการกระจายตัว (Distribute) ด้านปริมาณของข้อมูลในแต่ละแกนอย่างเหมาะสม ซึ่งทั้งสองส่วนนี้เป็นปัจจัยสำคัญ และยังเป็นส่วนหนึ่งของแผนการเก็บข้อมูลขององค์กร จึงทำให้การรวบรวมและจัดเก็บมีปริมาณที่สูงมากยิ่งขึ้นนั่นเอง

การเก็บ Big data เพื่อปรับปรุงบริการและผลิตภัณฑ์ขององค์กร

หากองค์กรสามารถเก็บข้อมูลพฤติกรรมของผู้บริโภคและนำมาใช้วิเคราะห์ได้แบบละเอียด แทนที่จะเป็นการวิเคราะห์เชิงองค์รวมหรือมหภาคนั้น (Aggregated/ Summarized Level) จะสามารถทำให้องค์กรเข้าใจในพฤติกรรมละเอียดรายบุคคล(หรือกลุ่มย่อย) และนำมาปรับปรุงบริการหรือผลิตภัณฑ์ขององค์กรได้อย่างมีประสิทธิภาพมากยิ่งขึ้น เราจึงมีแนวโน้มจะเห็นองค์กรทำการจัดเก็บข้อมูลพฤติกรรมเหล่านี้มากขึ้นเรื่อยๆ เช่นการยืนยันตนเองบนเว็บไซต์/Application เพื่อระบุตัวตนของผู้บริโภค และทำการเชื่อมกับพฤติกรรมของคนๆนั้นเอาไว้นั่นเอง

Share