V Uday Kumar Reddy, Rajashree Shettar y Vidya Niranjan
La invención de nuevas técnicas informáticas, como la computación en la nube y la computación en red, ha reducido el coste de los cálculos gracias a una distribución óptima de los recursos. Sin embargo, muchas aplicaciones no se han trasladado completamente a estas nuevas tecnologías, principalmente debido a la renuencia de los científicos a compartir los datos a través de Internet por razones de seguridad. Aunque el coste del hardware se ha reducido drásticamente, pocas aplicaciones requieren una gran potencia de procesamiento para procesar o analizar grandes cantidades de datos científicos. Además, debido al alto coste necesario para adquirir recursos informáticos, muchas de las aplicaciones científicas aún no se han materializado por completo. Una de esas aplicaciones es la secuenciación de próxima generación (NGS), que tendrá que manejar terabytes de datos genómicos, lo que requerirá una gran potencia de cálculo. Por lo tanto, se necesita una supercomputadora para procesar los datos de manera eficiente.
En este artículo, se ha propuesto el uso del middleware de red de código abierto Berkeley Open Infrastructure for Network Computing (BOINC) para permitir el ensamblaje de novo utilizando un clúster de máquinas de escritorio en el paradigma maestro y voluntario. El paradigma se puede configurar en laboratorios informáticos normales, lo que elimina tanto los problemas de ancho de banda como de seguridad que implica el uso de métodos de computación en la nube y en red a través de Internet. Este paradigma crea una supercomputadora virtual en laboratorios para procesar datos.