Tomás Domínguez Mínguez

Google Assistant. Desarrollo de aplicaciones IoT para Arduino y ESP8266


Скачать книгу

«Invocation»: le permite acceder a la misma ventana que con «Overview» → «Decide how your Action is invoked», vista anteriormente.

      • «Actions»: en ella podrá ver la lista de acciones creadas. De momento, solo tiene una («actions.intent.MAIN»), que es la principal. Dicha acción activará la intención de bienvenida cuando la invoque diciendo, por ejemplo, «hablar con mi primer asistente».

illustration illustration

      A esta ventana también se habría podido acceder desde «Overview» → «Add action(s)».

      4.1.1.3 Pestaña de pruebas (Test)

      En la pestaña «Test», se encuentra el simulador que permitirá comprobar el funcionamiento de las acciones que haya desarrollado.

illustration

      En dicho simulador, se distinguen tres zonas principales:

      1. Zona de entrada y simulación de salida de datos: es la situada a la izquierda, en cuya parte superior hay un campo de entrada donde podrá escribir lo que quiera o, en el caso de haber dado acceso al micrófono, decirlo de palabra, pulsando sobre el icono con forma de micrófono que aparece a su izquierda.

      A la derecha de dicho campo, hay un menú desplegable en el que se pueden seleccionar los siguientes tipos de entradas:

      • Detección automática («Auto detect»): es la opción por defecto. Detecta automáticamente la voz, el teclado o la entrada táctil.

      • Toque («Touch»): se utiliza en pantallas inteligentes y teléfonos móviles para utilizar elementos interactivos.

      • Voz («Voice»): permite solo la entrada de voz.

      • Teclado («Keyboard»): admite únicamente entradas de texto.

illustration

      Debajo del campo de entrada de datos, se sitúa un área de sugerencias en el que aparecerán botones que, a modo de ayuda, proponen acciones que podrían llevarse a cabo con el asistente. Nada más entrar en esta pestaña, se mostrará siempre la expresión de invocación de la acción principal del proyecto seleccionado.

      Por último, en la parte inferior se simula la salida del asistente tal como se vería en el dispositivo seleccionado.

      2. Zona de configuración, en la que podrá establecer el idioma empleado (en caso de tener varios), así como el tipo de asistente que desea simular para probar su acción. Podrá elegir entre pantalla inteligente («Smart Display»), teléfono móvil («Phone»), altavoz inteligente («Speaker») o dispositivo KaiOS (es un sistema operativo que requiere muy pocos requisitos técnicos, lo que permite desarrollar teléfonos móviles muy económicos).

illustration

      En esta zona, también aparece la localización física desde la que se está utilizando el simulador.

      3. Zona de depuración, donde verá la conversación completa con el asistente. Dicha conversación se estructura en turnos de palabra. Pulsando sobre el pequeño icono con forma de punta de flecha situado en la parte superior derecha de cada uno de ellos, se mostraría el detalle del contenido JSON de los mensajes HTTP de petición y respuesta intercambiadas por Dialogflow (pestañas «REQUEST» y «RESPONSE») o el audio generado (pestaña «AUDIO»), así como información detallada de depuración (pestaña «DEBUG») y errores producidos (pestaña «ERRORS»).

illustration

      JSON (JavaScript Object Notation – notación de objetos JavaScript) es uno de los formatos de intercambio de datos más utilizados en Internet. Lo estudiará más adelante.

illustration

      Tendrá ocasión de conocer y utilizar estas pestañas cuando empiece a desarrollar sus intenciones.

      Unidad 5

      DIALOGFLOW

      Dialogflow es la plataforma que le va a permitir el diseño de interfaces de usuario conversacionales y su integración con otros servicios. Dicho de una forma orientada específicamente a los objetivos de este libro, es aquella que le posibilitará establecer la estructura de la conversación con la que podrá solicitar la ejecución de acciones o la recogida de información de los dispositivos ESP8266.

illustration

      Para poder entablar una conversación con un sistema, como si de otra persona se tratara, este debe ser capaz de interpretar y procesar el lenguaje natural utilizando técnicas de inteligencia artificial. Piense, por ejemplo, que, para solicitar un pronóstico del tiempo, alguien puede decir frases tan diferentes como «¿qué tiempo va a hacer mañana?», «¿cuál es la previsión meteorológica?», «¿cómo está el clima hoy?», etc. Saber a qué se está refiriendo en cada momento o, simplemente, entender las diversas formas que hay de aludir a lo mismo requiere un software de análisis de lenguaje, que Dialogflow se encarga de proporcionarle en forma de agente.

      El agente de Dialogflow será el responsable de mantener las conversaciones con los usuarios. Para ello, utiliza técnicas de comprensión del lenguaje natural y aprendizaje automático que entienden los matices del lenguaje, convirtiendo lo que se dice en datos estructurados que puedan ser manejados, de forma sencilla, por las aplicaciones. Mediante la comprensión del lenguaje natural, se reconocen las intenciones del usuario y se obtiene la información que es relevante de sus expresiones. Dicha información se extraerá como parámetros, cuyos valores pertenecen a un tipo o entidad. Algunas de estas entidades, al ser generales, se identifican de forma automática, como los colores, los nombres de ciudades o países, las fechas, los números, etc. Otros podrán ser establecidos por usted como, por ejemplo, el tipo de dispositivo que quiera controlar con un ESP8266. Para ello, únicamente es necesario dar al agente un pequeño conjunto de frases de entrenamiento que lo preparen para identificar dichas intenciones y entidades personalizadas.

      Las interfaces de voz conversacionales creadas con Dialogflow funcionan con una amplia gama de dispositivos, incluidos teléfonos móviles, dispositivos portátiles, automóviles, altavoces inteligentes (incluso los de Alexa), etc. Además, se puede hablar con él en más de veinte idiomas, entre los que se encuentra el español, tanto el de España como su variante (configuración regional) latinoamericana.

      En combinación con la tecnología IoT, las interfaces de voz creadas con Dialogflow le permitirán dotar de mayor inteligencia a los dispositivos, ya que su interacción con ellos se producirá mediante conversaciones naturales, que harán que entiendan el contexto de las solicitudes realizadas por los usuarios, respondiendo con mayor precisión.

      5.1 CONSOLA

      La administración del agente asociado a cada uno de sus proyectos se realizará desde la consola de Dialogflow, a la que se accede a través del enlace https://dialogflow.cloud.google.com/. Para ello, utilice el mismo usuario de Actions on Google. Una vez dentro, su aspecto es el que se observa en la imagen inferior.

illustration